ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

日娜·土費琪: 在機器智慧時代,堅守人類道德更形重要

Filmed:
1,648,711 views

機器智慧時代已來臨,且已被用於主觀判斷和做決定。但是人難以理解、控制越來越複雜的人工智慧。科技社會學家日娜·土費琪在演講中警示我們,人工智慧會在人類不會犯錯的地方出錯,可能會以我們意想不到、沒有準備的方式出錯。她說:「我們不能把責任外包給機器。我們必須更堅守人類的價值觀和人類的倫理。」
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I started開始 my first job工作
as a computer電腦 programmer程序員
0
739
4122
大一時我開始了第一份工作:
程式設計師,
00:16
in my very first year of college學院 --
1
4885
1956
00:18
basically基本上, as a teenager青少年.
2
6865
1507
當時我還算是個青少女。
00:20
Soon不久 after I started開始 working加工,
3
8889
1732
開始為軟體公司寫程式後不久,
00:22
writing寫作 software軟件 in a company公司,
4
10645
1610
00:24
a manager經理 who worked工作 at the company公司
came來了 down to where I was,
5
12799
3635
公司裡的一個經理走到我身邊,
00:28
and he whispered低聲道 to me,
6
16458
1268
悄悄地問:
00:30
"Can he tell if I'm lying說謊?"
7
18229
2861
「他能判斷我是否說謊嗎?」
00:33
There was nobody沒有人 else其他 in the room房間.
8
21806
2077
當時房裡沒別人。
「『誰』能不能判斷你說謊與否?
而且,我們為什麼耳語呢?」
00:37
"Can who tell if you're lying說謊?
And why are we whispering耳語?"
9
25032
4389
00:42
The manager經理 pointed
at the computer電腦 in the room房間.
10
30266
3107
經理指著房裡的電腦,問:
00:45
"Can he tell if I'm lying說謊?"
11
33397
3096
「『他』能判斷我是否說謊嗎?」
00:49
Well, that manager經理 was having
an affair事務 with the receptionist接待員.
12
37613
4362
當時那經理與接待員有曖昧關係。
00:53
(Laughter笑聲)
13
41999
1112
(笑聲)
00:55
And I was still a teenager青少年.
14
43135
1766
那時我仍是個青少女。
00:57
So I whisper-shouted耳語叫著 back to him,
15
45447
2019
所以,我用耳語大聲地回答他:
00:59
"Yes, the computer電腦 can tell
if you're lying說謊."
16
47490
3624
「能,電腦能判斷你撒謊與否。」
01:03
(Laughter笑聲)
17
51138
1806
(笑聲)
01:04
Well, I laughed笑了, but actually其實,
the laugh's笑的 on me.
18
52968
2923
沒錯,我笑了,
但可笑的人是我。
01:07
Nowadays如今, there are computational計算 systems系統
19
55915
3268
如今,有些計算系統
01:11
that can sussSUSS out
emotional情緒化 states狀態 and even lying說謊
20
59207
3548
靠分析、判讀面部表情,
就能判斷出情緒狀態,
01:14
from processing處理 human人的 faces面孔.
21
62779
2044
甚至判斷是否說謊。
01:17
Advertisers廣告商 and even governments政府
are very interested有興趣.
22
65248
4153
廣告商,甚至政府也對此很感興趣。
01:22
I had become成為 a computer電腦 programmer程序員
23
70319
1862
我之所以成為程式設計師
01:24
because I was one of those kids孩子
crazy about math數學 and science科學.
24
72205
3113
乃因自幼便極為喜愛數學和科學。
01:27
But somewhere某處 along沿 the line
I'd learned學到了 about nuclear weapons武器,
25
75942
3108
過程中我學到核子武器,
01:31
and I'd gotten得到 really concerned關心
with the ethics倫理 of science科學.
26
79074
2952
因而變得非常關心科學倫理。
01:34
I was troubled苦惱.
27
82050
1204
我很苦惱。
01:35
However然而, because of family家庭 circumstances情況,
28
83278
2641
但由於家庭狀況,
01:37
I also needed需要 to start開始 working加工
as soon不久 as possible可能.
29
85943
3298
我必須儘早就業。
01:41
So I thought to myself, hey,
let me pick a technical技術 field領域
30
89265
3299
因此我告訴自己,
選擇一個在科技領域中
能簡單地找到頭路,
01:44
where I can get a job工作 easily容易
31
92588
1796
01:46
and where I don't have to deal合同
with any troublesome麻煩 questions問題 of ethics倫理.
32
94408
4018
又無需處理涉及倫理道德
這類麻煩問題的工作吧。
01:51
So I picked採摘的 computers電腦.
33
99022
1529
所以我選擇了電腦。
01:52
(Laughter笑聲)
34
100575
1104
(笑聲)
01:53
Well, ha, ha, ha!
All the laughs are on me.
35
101703
3410
是啊,哈哈哈!大家都笑我。
01:57
Nowadays如今, computer電腦 scientists科學家們
are building建造 platforms平台
36
105137
2754
如今,電腦科學家
正建構著可控制數十億人
每天接收訊息的平台。
01:59
that control控制 what a billion十億
people see every一切 day.
37
107915
4209
02:05
They're developing發展 cars汽車
that could decide決定 who to run over.
38
113052
3822
他們設計的汽車
可以決定要輾過哪些人。
02:09
They're even building建造 machines, weapons武器,
39
117707
3213
他們甚至建造能殺人的
戰爭機器和武器。
02:12
that might威力 kill human人的 beings眾生 in war戰爭.
40
120944
2285
02:15
It's ethics倫理 all the way down.
41
123253
2771
從頭到尾都是倫理的問題。
02:19
Machine intelligence情報 is here.
42
127183
2058
機器智慧已經在此。
02:21
We're now using運用 computation計算
to make all sort分類 of decisions決定,
43
129823
3474
我們利用計算
來做各種決策,
02:25
but also new kinds of decisions決定.
44
133321
1886
同時也是種新形態的決策。
02:27
We're asking questions問題 to computation計算
that have no single right answers答案,
45
135231
5172
我們以計算來尋求解答,
但問題沒有單一的正解,
02:32
that are subjective主觀
46
140427
1202
而是主觀、開放、具價值觀的答案。
02:33
and open-ended打開端 and value-laden價值負載.
47
141653
2325
02:36
We're asking questions問題 like,
48
144002
1758
問題像是,
02:37
"Who should the company公司 hire聘請?"
49
145784
1650
「公司應該聘誰?」
02:40
"Which哪一個 update更新 from which哪一個 friend朋友
should you be shown顯示?"
50
148096
2759
「應該顯示哪個朋友的哪項更新?」
02:42
"Which哪一個 convict定罪 is more
likely容易 to reoffend重犯?"
51
150879
2266
「哪個罪犯更可能再犯?」
02:45
"Which哪一個 news新聞 item項目 or movie電影
should be recommended推薦的 to people?"
52
153514
3054
「應該推薦哪項新聞或哪部電影?」
02:48
Look, yes, we've我們已經 been using運用
computers電腦 for a while,
53
156592
3372
我們使用電腦雖有一段時間了,
02:51
but this is different不同.
54
159988
1517
但這是不同的。
02:53
This is a historical歷史的 twist,
55
161529
2067
這是歷史性的轉折,
02:55
because we cannot不能 anchor computation計算
for such這樣 subjective主觀 decisions決定
56
163620
5337
因我們不能主導計算機
如何去做這樣的主觀決定,
03:00
the way we can anchor computation計算
for flying飛行 airplanes飛機, building建造 bridges橋樑,
57
168981
5420
無法像主導計算機去開飛機、造橋樑
或登陸月球那樣。
03:06
going to the moon月亮.
58
174425
1259
03:08
Are airplanes飛機 safer更安全?
Did the bridge sway搖擺 and fall秋季?
59
176449
3259
飛機會更安全嗎?
橋樑會搖擺或倒塌嗎?
03:11
There, we have agreed-upon同意;打勾,
fairly相當 clear明確 benchmarks基準,
60
179732
4498
那兒已有相當明確的基準共識,
03:16
and we have laws法律 of nature性質 to guide指南 us.
61
184254
2239
有自然的法則指引著我們。
03:18
We have no such這樣 anchors and benchmarks基準
62
186517
3394
但我們沒有
判斷凌亂人事的錨點或基準。
03:21
for decisions決定 in messy human人的 affairs事務.
63
189935
3963
03:25
To make things more complicated複雜,
our software軟件 is getting得到 more powerful強大,
64
193922
4237
使事情變得更為複雜的是,
因軟體越來越強大,
03:30
but it's also getting得到 less
transparent透明 and more complex複雜.
65
198183
3773
但也越來越不透明,越複雜難懂。
03:34
Recently最近, in the past過去 decade,
66
202542
2040
過去十年
03:36
complex複雜 algorithms算法
have made製作 great strides進步.
67
204606
2729
複雜的演算法有長足的進步:
03:39
They can recognize認識 human人的 faces面孔.
68
207359
1990
能辨識人臉,
03:41
They can decipher解碼 handwriting手寫.
69
209985
2055
能解讀手寫的字,
03:44
They can detect檢測 credit信用 card fraud舞弊
70
212436
2066
能檢測信用卡欺詐,
03:46
and block spam垃圾郵件
71
214526
1189
阻擋垃圾郵件,
03:47
and they can translate翻譯 between之間 languages語言.
72
215739
2037
能翻譯不同的語言,
03:49
They can detect檢測 tumors腫瘤 in medical imaging成像.
73
217800
2574
能判讀醫學影像查出腫瘤,
03:52
They can beat擊敗 humans人類 in chess and Go.
74
220398
2205
能在西洋棋和圍棋賽中
擊敗人類棋手。
03:55
Much of this progress進展 comes
from a method方法 called "machine learning學習."
75
223264
4504
這些進步主要來自所謂的
「機器學習」法。
04:00
Machine learning學習 is different不同
than traditional傳統 programming程序設計,
76
228175
3187
機器學習不同於傳統的程式編寫。
04:03
where you give the computer電腦
detailed詳細, exact精確, painstaking刻苦 instructions說明.
77
231386
3585
編寫程式是下詳細、精確、
齊全的計算機指令;
04:07
It's more like you take the system系統
and you feed飼料 it lots of data數據,
78
235378
4182
機器學習更像是
餵大量的數據給系統,
04:11
including包含 unstructured非結構化 data數據,
79
239584
1656
包括非結構化的數據,
04:13
like the kind we generate生成
in our digital數字 lives生活.
80
241264
2278
像我們數位生活產生的數據;
04:15
And the system系統 learns獲悉
by churning翻騰 through通過 this data數據.
81
243566
2730
系統翻撈這些數據來學習。
04:18
And also, crucially關鍵,
82
246669
1526
至關重要的是,
04:20
these systems系統 don't operate操作
under a single-answer單答案 logic邏輯.
83
248219
4380
這些系統不在產生
單一答案的邏輯系統下運作;
04:24
They don't produce生產 a simple簡單 answer回答;
it's more probabilistic概率:
84
252623
2959
它們不會給出一個簡單的答案,
而是以更接近機率的形式呈現:
04:27
"This one is probably大概 more like
what you're looking for."
85
255606
3483
「這可能更接近你所要找的。」
04:32
Now, the upside上邊 is:
this method方法 is really powerful強大.
86
260023
3070
好處是:這方法強而有力。
04:35
The head of Google's谷歌的 AIAI systems系統 called it,
87
263117
2076
谷歌的人工智慧系統負責人稱之為:
04:37
"the unreasonable不合理 effectiveness效用 of data數據."
88
265217
2197
「不合理的數據有效性。」
04:39
The downside缺點 is,
89
267791
1353
缺點是,
04:41
we don't really understand理解
what the system系統 learned學到了.
90
269738
3071
我們未能真正明白
系統學到了什麼。
04:44
In fact事實, that's its power功率.
91
272833
1587
事實上,這就是它的力量。
04:46
This is less like giving
instructions說明 to a computer電腦;
92
274946
3798
這不像下指令給計算機;
04:51
it's more like training訓練
a puppy-machine-creature小狗 - 機 - 生物
93
279200
4064
而更像是訓練
我們未能真正了解
或無法控制的機器寵物狗。
04:55
we don't really understand理解 or control控制.
94
283288
2371
04:58
So this is our problem問題.
95
286362
1551
這是我們的問題。
05:00
It's a problem問題 when this artificial人造
intelligence情報 system系統 gets得到 things wrong錯誤.
96
288427
4262
人工智慧系統出錯時會是個問題;
05:04
It's also a problem問題
when it gets得到 things right,
97
292713
3540
即使它弄對了還是個問題,
05:08
because we don't even know which哪一個 is which哪一個
when it's a subjective主觀 problem問題.
98
296277
3628
因碰到主觀問題時,
我們不知哪個是哪個。
05:11
We don't know what this thing is thinking思維.
99
299929
2339
我們不知道系統在想什麼。
05:15
So, consider考慮 a hiring招聘 algorithm算法 --
100
303493
3683
就拿招募人員的演算法來說,
05:20
a system系統 used to hire聘請 people,
using運用 machine-learning機器學習 systems系統.
101
308123
4311
亦即以機器學習來僱用人的系統,
05:25
Such這樣 a system系統 would have been trained熟練
on previous以前 employees'僱員' data數據
102
313052
3579
這樣的系統用
已有的員工數據來訓練機器,
05:28
and instructed指示 to find and hire聘請
103
316655
2591
指示它尋找和僱用那些
05:31
people like the existing現有
high performers表演者 in the company公司.
104
319270
3038
類似公司現有的高績效員工的人。
05:34
Sounds聲音 good.
105
322814
1153
聽起來不錯。
05:35
I once一旦 attended出席 a conference會議
106
323991
1999
我曾參加某會議,
05:38
that brought together一起
human人的 resources資源 managers經理 and executives高管,
107
326014
3125
聚集人資經理和高階主管,
05:41
high-level高水平 people,
108
329163
1206
高層人士,
05:42
using運用 such這樣 systems系統 in hiring招聘.
109
330393
1559
使用這種系統招聘。
05:43
They were super excited興奮.
110
331976
1646
他們超級興奮,
05:45
They thought that this would make hiring招聘
more objective目的, less biased,
111
333646
4653
認為這種系統會使招聘更為客觀,
較少偏見,
05:50
and give women婦女
and minorities少數民族 a better shot射擊
112
338323
3000
有利於婦女和少數民族
05:53
against反對 biased human人的 managers經理.
113
341347
2188
避開有偏見的管理人。
05:55
And look -- human人的 hiring招聘 is biased.
114
343559
2843
看哪!靠人類僱用是有偏見的。
05:59
I know.
115
347099
1185
我知道。
06:00
I mean, in one of my early jobs工作
as a programmer程序員,
116
348308
3005
我的意思是,
在早期某個編寫程式的工作,
06:03
my immediate即時 manager經理 would sometimes有時
come down to where I was
117
351337
3868
有時候我的直屬主管會在
06:07
really early in the morning早上
or really late晚了 in the afternoon下午,
118
355229
3753
大清早或下午很晚時來到我身旁,
06:11
and she'd say, "ZeynepZeynep相識,
let's go to lunch午餐!"
119
359006
3062
說:「日娜,走,吃午飯!」
06:14
I'd be puzzled困惑 by the weird奇怪的 timing定時.
120
362724
2167
我被奇怪的時間點所困惑。
06:16
It's 4pm下午. Lunch午餐?
121
364915
2129
下午4點。吃午餐?
06:19
I was broke打破, so free自由 lunch午餐. I always went.
122
367068
3094
我很窮,
因是免費的午餐,所以總是會去。
06:22
I later後來 realized實現 what was happening事件.
123
370618
2067
後來我明白到底是怎麼回事。
06:24
My immediate即時 managers經理
had not confessed供認不諱 to their higher-ups上級
124
372709
4546
我的直屬主管沒讓她的主管知道,
06:29
that the programmer程序員 they hired僱用
for a serious嚴重 job工作 was a teen青少年 girl女孩
125
377279
3113
他們僱來做重要職務的程式設計師,
是個穿牛仔褲和運動鞋
06:32
who wore穿著 jeans牛仔褲 and sneakers球鞋 to work.
126
380416
3930
來上班的十幾歲女孩。
06:37
I was doing a good job工作,
I just looked看著 wrong錯誤
127
385174
2202
我工作做得很好,
只是外表形象看起來不符,
06:39
and was the wrong錯誤 age年齡 and gender性別.
128
387400
1699
年齡和性別不對。
06:41
So hiring招聘 in a gender-性別- and race-blind比賽盲 way
129
389123
3346
因此,性別和種族
不列入考慮的僱用系統
06:44
certainly當然 sounds聲音 good to me.
130
392493
1865
對我而言當然不錯。
06:47
But with these systems系統,
it is more complicated複雜, and here's這裡的 why:
131
395031
3341
但使用這些系統會更複雜,原因是:
06:50
Currently目前, computational計算 systems系統
can infer推斷 all sorts排序 of things about you
132
398968
5791
目前的計算系統
可從你零散的數位足跡
推斷出關於你的各種事物,
06:56
from your digital數字 crumbs,
133
404783
1872
06:58
even if you have not
disclosed披露 those things.
134
406679
2333
即使你未曾披露過。
07:01
They can infer推斷 your sexual有性 orientation方向,
135
409506
2927
他們能推斷你的性取向,
07:04
your personality個性 traits性狀,
136
412994
1306
個性的特質,
07:06
your political政治 leanings傾向.
137
414859
1373
政治的傾向。
07:08
They have predictive預測 power功率
with high levels水平 of accuracy準確性.
138
416830
3685
他們的預測能力相當精準。
07:13
Remember記得 -- for things
you haven't沒有 even disclosed披露.
139
421362
2578
請記住:知道你未曾公開的事情
07:15
This is inference推理.
140
423964
1591
是推理。
07:17
I have a friend朋友 who developed發達
such這樣 computational計算 systems系統
141
425579
3261
我有個朋友開發這樣的計算系統:
07:20
to predict預測 the likelihood可能性
of clinical臨床 or postpartum產後 depression蕭條
142
428864
3641
從社交媒體數據來預測
臨床或產後抑鬱症的可能性。
07:24
from social社會 media媒體 data數據.
143
432529
1416
07:26
The results結果 are impressive有聲有色.
144
434676
1427
結果非常優異。
07:28
Her system系統 can predict預測
the likelihood可能性 of depression蕭條
145
436492
3357
她的系統
能在出現任何症狀的幾個月前
預測出抑鬱的可能性,
07:31
months個月 before the onset發病 of any symptoms症狀 --
146
439873
3903
07:35
months個月 before.
147
443800
1373
是好幾個月前。
07:37
No symptoms症狀, there's prediction預測.
148
445197
2246
雖沒有症狀,已預測出來。
07:39
She hopes希望 it will be used
for early intervention介入. Great!
149
447467
4812
她希望它被用來早期干預處理。
很好!
07:44
But now put this in the context上下文 of hiring招聘.
150
452911
2040
但是,設想若把這系統
用在僱人的情況下。
07:48
So at this human人的 resources資源
managers經理 conference會議,
151
456027
3046
在這人資經理會議中,
07:51
I approached接近 a high-level高水平 manager經理
in a very large company公司,
152
459097
4709
我走向一間大公司的高階經理,
對她說:
07:55
and I said to her, "Look,
what if, unbeknownst不知情 to you,
153
463830
4578
「假設在你不知道的情形下,
08:00
your system系統 is weeding除草 out people
with high future未來 likelihood可能性 of depression蕭條?
154
468432
6549
那個系統被用來排除
未來極有可能抑鬱的人呢?
08:07
They're not depressed鬱悶 now,
just maybe in the future未來, more likely容易.
155
475761
3376
他們現在不抑鬱,
只是未來『比較有可能』抑鬱。
08:11
What if it's weeding除草 out women婦女
more likely容易 to be pregnant
156
479923
3406
如果它被用來排除
在未來一兩年比較有可能懷孕,
08:15
in the next下一個 year or two
but aren't pregnant now?
157
483353
2586
但現在沒懷孕的婦女呢?
08:18
What if it's hiring招聘 aggressive侵略性 people
because that's your workplace職場 culture文化?"
158
486844
5636
如果它被用來招募激進性格者,
以符合你的職場文化呢?」
08:25
You can't tell this by looking
at gender性別 breakdowns故障.
159
493173
2691
透過性別比例無法看到這些問題,
08:27
Those may可能 be balanced均衡.
160
495888
1502
因比例可能是均衡的。
08:29
And since以來 this is machine learning學習,
not traditional傳統 coding編碼,
161
497414
3557
而且由於這是機器學習,
不是傳統編碼,
08:32
there is no variable變量 there
labeled標記 "higher更高 risk風險 of depression蕭條,"
162
500995
4907
沒有標記為「更高抑鬱症風險」、
08:37
"higher更高 risk風險 of pregnancy懷孕,"
163
505926
1833
「更高懷孕風險」、
08:39
"aggressive侵略性 guy scale規模."
164
507783
1734
「侵略性格者」的變數;
08:41
Not only do you not know
what your system系統 is selecting選擇 on,
165
509995
3679
你不僅不知道系統在選什麼,
08:45
you don't even know
where to begin開始 to look.
166
513698
2323
甚至不知道要從何找起。
08:48
It's a black黑色 box.
167
516045
1246
它就是個黑盒子,
08:49
It has predictive預測 power功率,
but you don't understand理解 it.
168
517315
2807
具有預測能力,但你不了解它。
08:52
"What safeguards保障," I asked, "do you have
169
520486
2369
我問:「你有什麼能確保
08:54
to make sure that your black黑色 box
isn't doing something shady陰涼?"
170
522879
3673
你的黑盒子沒在暗地裡
做了什麼不可告人之事?
09:00
She looked看著 at me as if I had
just stepped加強 on 10 puppy小狗 tails尾巴.
171
528863
3878
她看著我,彷彿我剛踩了
十隻小狗的尾巴。
09:04
(Laughter笑聲)
172
532765
1248
(笑聲)
09:06
She stared盯著 at me and she said,
173
534037
2041
她盯著我,說:
09:08
"I don't want to hear
another另一個 word about this."
174
536556
4333
「關於這事,我不想
再聽妳多說一個字。」
09:13
And she turned轉身 around and walked away.
175
541458
2034
然後她就轉身走開了。
09:16
Mind心神 you -- she wasn't rude無禮.
176
544064
1486
提醒你們,她不是粗魯。
09:17
It was clearly明確地: what I don't know
isn't my problem問題, go away, death死亡 stare.
177
545574
6308
她的意思很明顯:
我不知道的事不是我的問題。
走開。惡狠狠盯著。
09:23
(Laughter笑聲)
178
551906
1246
(笑聲)
09:25
Look, such這樣 a system系統
may可能 even be less biased
179
553862
3839
這樣的系統可能比人類經理
在某些方面更沒有偏見,
09:29
than human人的 managers經理 in some ways方法.
180
557725
2103
09:31
And it could make monetary貨幣 sense.
181
559852
2146
可能也省錢;
09:34
But it could also lead
182
562573
1650
但也可能在不知不覺中逐步導致
09:36
to a steady穩定 but stealthy鬼鬼祟祟
shutting關閉 out of the job工作 market市場
183
564247
4748
抑鬱症風險較高的人
在就業市場裡吃到閉門羹。
09:41
of people with higher更高 risk風險 of depression蕭條.
184
569019
2293
09:43
Is this the kind of society社會
we want to build建立,
185
571753
2596
我們要在不自覺的情形下
建立這種社會嗎?
09:46
without even knowing會心 we've我們已經 doneDONE this,
186
574373
2285
09:48
because we turned轉身 decision-making做決定
to machines we don't totally完全 understand理解?
187
576682
3964
僅僅因我們讓給
我們不完全理解的機器做決策?
09:53
Another另一個 problem問題 is this:
188
581265
1458
另一個問題是:這些系統通常由
09:55
these systems系統 are often經常 trained熟練
on data數據 generated產生 by our actions行動,
189
583314
4452
我們行動產生的數據,
即人類的印記所訓練。
09:59
human人的 imprints印記.
190
587790
1816
10:02
Well, they could just be
reflecting反映 our biases偏見,
191
590188
3808
它們可能只是反映我們的偏見,
10:06
and these systems系統
could be picking選擇 up on our biases偏見
192
594020
3593
學習了我們的偏見
10:09
and amplifying放大 them
193
597637
1313
並且放大,
10:10
and showing展示 them back to us,
194
598974
1418
然後回饋給我們;
10:12
while we're telling告訴 ourselves我們自己,
195
600416
1462
而我們卻告訴自己:
10:13
"We're just doing objective目的,
neutral中性 computation計算."
196
601902
3117
「這樣做是客觀、不偏頗的計算。」
10:18
Researchers研究人員 found發現 that on Google谷歌,
197
606314
2677
研究人員在谷歌上發現,
10:22
women婦女 are less likely容易 than men男人
to be shown顯示 job工作 ads廣告 for high-paying高薪 jobs工作.
198
610134
5313
女性看到高薪工作招聘的廣告
少於男性。
10:28
And searching搜索 for African-American非裔美國人 names
199
616463
2530
蒐索非裔美國人的名字
10:31
is more likely容易 to bring帶來 up ads廣告
suggesting提示 criminal刑事 history歷史,
200
619017
4706
比較可能帶出暗示犯罪史的廣告,
10:35
even when there is none沒有.
201
623747
1567
即使那人並無犯罪史。
10:38
Such這樣 hidden biases偏見
and black-box黑盒子 algorithms算法
202
626693
3549
這種隱藏偏見和黑箱的演算法,
10:42
that researchers研究人員 uncover揭露 sometimes有時
but sometimes有時 we don't know,
203
630266
3973
有時被研究人員發現了,
但有時我們毫無所知,
10:46
can have life-altering改變生活 consequences後果.
204
634263
2661
很可能產生改變生命的後果。
10:49
In Wisconsin威斯康星, a defendant被告
was sentenced判刑 to six years年份 in prison監獄
205
637958
4159
在威斯康辛州,某個被告
因逃避警察而被判處六年監禁。
10:54
for evading迴避 the police警察.
206
642141
1355
10:56
You may可能 not know this,
207
644824
1186
你可能不知道
10:58
but algorithms算法 are increasingly日益 used
in parole言語 and sentencing宣判 decisions決定.
208
646034
3998
演算法越來越頻繁地被用在
假釋和量刑的決定上。
11:02
He wanted to know:
How is this score得分了 calculated計算?
209
650056
2955
想知道分數如何計算出來的嗎?
11:05
It's a commercial廣告 black黑色 box.
210
653795
1665
這是個商業的黑盒子,
11:07
The company公司 refused拒絕 to have its algorithm算法
be challenged挑戰 in open打開 court法庭.
211
655484
4205
開發它的公司
拒絕讓演算法在公開法庭上受盤問。
11:12
But ProPublicaProPublica, an investigative研究
nonprofit非營利性, audited審計 that very algorithm算法
212
660396
5532
但是 ProPublica 這家
非營利機構評估該演算法,
11:17
with what public上市 data數據 they could find,
213
665952
2016
使用找得到的公共數據,
11:19
and found發現 that its outcomes結果 were biased
214
667992
2316
發現其結果偏頗,
11:22
and its predictive預測 power功率
was dismal慘淡, barely僅僅 better than chance機會,
215
670332
3629
預測能力相當差,
僅比碰運氣稍強,
11:25
and it was wrongly labeling標籤
black黑色 defendants被告 as future未來 criminals罪犯
216
673985
4416
並錯誤地標記
黑人被告成為未來罪犯的機率,
11:30
at twice兩次 the rate of white白色 defendants被告.
217
678425
3895
是白人被告的兩倍。
11:35
So, consider考慮 this case案件:
218
683891
1564
考慮這個情況:
11:38
This woman女人 was late晚了
picking選擇 up her godsistergodsister
219
686103
3852
這女人因來不及去佛州布勞沃德郡的
學校接她的乾妹妹,
11:41
from a school學校 in Broward布勞沃德 County, Florida佛羅里達,
220
689979
2075
而與朋友狂奔趕赴學校。
11:44
running賽跑 down the street
with a friend朋友 of hers她的.
221
692757
2356
他們看到門廊上有一輛未上鎖的
兒童腳踏車和一台滑板車,
11:47
They spotted an unlocked解鎖 kid's孩子的 bike自行車
and a scooter摩托車 on a porch門廊
222
695137
4099
11:51
and foolishly婆媽 jumped跳下 on it.
223
699260
1632
愚蠢地跳上去,
11:52
As they were speeding超速 off,
a woman女人 came來了 out and said,
224
700916
2599
當他們趕時間快速離去時,
一個女人出來說:
「嘿!那是我孩子的腳踏車!」
11:55
"Hey! That's my kid's孩子的 bike自行車!"
225
703539
2205
11:57
They dropped下降 it, they walked away,
but they were arrested被捕.
226
705768
3294
雖然他們留下車子走開,
但被逮捕了。
12:01
She was wrong錯誤, she was foolish,
but she was also just 18.
227
709086
3637
她錯了,她很蠢,
但她只有十八歲。
12:04
She had a couple一對 of juvenile少年 misdemeanors輕罪.
228
712747
2544
曾觸犯兩次少年輕罪。
12:07
Meanwhile與此同時, that man had been arrested被捕
for shoplifting行竊 in Home Depot倉庫 --
229
715808
5185
同時,
那個男人因在家得寶商店
偷竊八十五美元的東西而被捕,
12:13
85 dollars'美元的 worth價值 of stuff東東,
a similar類似 petty小氣 crime犯罪.
230
721017
2924
類似的小罪,
12:16
But he had two prior
armed武裝 robbery搶劫 convictions信念.
231
724766
4559
但他曾兩次因武裝搶劫而被定罪。
演算法認定她有再犯的高風險,
12:21
But the algorithm算法 scored進球 her
as high risk風險, and not him.
232
729955
3482
而他卻不然。
12:26
Two years年份 later後來, ProPublicaProPublica found發現
that she had not reoffendedreoffended.
233
734746
3874
兩年後,ProPublica
發現她未曾再犯;
12:30
It was just hard to get a job工作
for her with her record記錄.
234
738644
2550
但因有過犯罪紀錄而難以找到工作。
12:33
He, on the other hand, did reoffend重犯
235
741218
2076
另一方面,他再犯了,
12:35
and is now serving服務 an eight-year八年
prison監獄 term術語 for a later後來 crime犯罪.
236
743318
3836
現正因再犯之罪而入監服刑八年。
12:40
Clearly明確地, we need to audit審計 our black黑色 boxes盒子
237
748088
3369
很顯然,我們必需審核黑盒子,
12:43
and not have them have
this kind of unchecked未選中 power功率.
238
751481
2615
並且不賦予它們
這類未經檢查的權力。
12:46
(Applause掌聲)
239
754120
2879
(掌聲)
12:50
Audits審計 are great and important重要,
but they don't solve解決 all our problems問題.
240
758087
4242
審核極其重要,
但不足以解決所有的問題。
12:54
Take Facebook'sFacebook的 powerful強大
news新聞 feed飼料 algorithm算法 --
241
762353
2748
拿臉書強大的動態消息演算法來說,
12:57
you know, the one that ranks行列 everything
and decides決定 what to show顯示 you
242
765125
4843
就是通過你的朋友圈
和瀏覽過的頁面,
排序並決定推薦
什麼給你看的演算法。
13:01
from all the friends朋友 and pages網頁 you follow跟隨.
243
769992
2284
13:04
Should you be shown顯示 another另一個 baby寶寶 picture圖片?
244
772898
2275
應該再讓你看一張嬰兒照片嗎?
13:07
(Laughter笑聲)
245
775197
1196
(笑聲)
13:08
A sullen憂鬱 note注意 from an acquaintance熟人?
246
776417
2596
或者一個熟人的哀傷筆記?
13:11
An important重要 but difficult news新聞 item項目?
247
779449
1856
還是一則重要但艱澀的新聞?
13:13
There's no right answer回答.
248
781329
1482
沒有正確的答案。
13:14
FacebookFacebook的 optimizes公司優化
for engagement訂婚 on the site現場:
249
782835
2659
臉書根據在網站上的參與度來優化:
13:17
likes喜歡, shares分享, comments註釋.
250
785518
1415
喜歡,分享,評論。
13:20
In August八月 of 2014,
251
788168
2696
2014年八月,
13:22
protests抗議 broke打破 out in Ferguson弗格森, Missouri密蘇里州,
252
790888
2662
在密蘇里州弗格森市
爆發了抗議遊行,
13:25
after the killing謀殺 of an African-American非裔美國人
teenager青少年 by a white白色 police警察 officer,
253
793574
4417
抗議一位白人警察在不明的狀況下
殺害一個非裔美國少年,
13:30
under murky模糊 circumstances情況.
254
798015
1570
13:31
The news新聞 of the protests抗議 was all over
255
799974
2007
抗議的消息充斥在
13:34
my algorithmically算法
unfiltered未經過濾 Twitter推特 feed飼料,
256
802005
2685
我未經演算法篩選過的推特頁面上,
13:36
but nowhere無處 on my FacebookFacebook的.
257
804714
1950
但我的臉書上卻一則也沒有。
13:39
Was it my FacebookFacebook的 friends朋友?
258
807182
1734
是我的臉書好友不關注這事嗎?
13:40
I disabled Facebook'sFacebook的 algorithm算法,
259
808940
2032
我關閉了臉書的演算法,
13:43
which哪一個 is hard because FacebookFacebook的
keeps保持 wanting希望 to make you
260
811472
2848
但很麻煩惱人,
因為臉書不斷地
想讓你回到演算法的控制下,
13:46
come under the algorithm's算法的 control控制,
261
814344
2036
13:48
and saw that my friends朋友
were talking about it.
262
816404
2238
臉書的朋友有在談論弗格森這事,
13:50
It's just that the algorithm算法
wasn't showing展示 it to me.
263
818666
2509
只是臉書的演算法沒有顯示給我看。
研究後,我發現這問題普遍存在。
13:53
I researched研究 this and found發現
this was a widespread廣泛 problem問題.
264
821199
3042
13:56
The story故事 of Ferguson弗格森
wasn't algorithm-friendly算法友好.
265
824265
3813
弗格森一事和演算法不合,
14:00
It's not "likable討人喜歡."
266
828102
1171
它不討喜;
14:01
Who's誰是 going to click點擊 on "like?"
267
829297
1552
誰會點擊「讚」呢?
14:03
It's not even easy簡單 to comment評論 on.
268
831500
2206
它甚至不易被評論。
14:05
Without沒有 likes喜歡 and comments註釋,
269
833730
1371
越是沒有讚、沒評論,
14:07
the algorithm算法 was likely容易 showing展示 it
to even fewer people,
270
835125
3292
演算法就顯示給越少人看,
所以我們看不到這則新聞。
14:10
so we didn't get to see this.
271
838441
1542
14:12
Instead代替, that week,
272
840946
1228
相反地,
臉書的演算法在那星期特別突顯
為漸凍人募款的冰桶挑戰這事。
14:14
Facebook'sFacebook的 algorithm算法 highlighted突出 this,
273
842198
2298
14:16
which哪一個 is the ALSALS Ice Bucket Challenge挑戰.
274
844520
2226
14:18
Worthy值得 cause原因; dump傾倒 ice water,
donate to charity慈善機構, fine.
275
846770
3742
崇高的目標;傾倒冰水,捐贈慈善,
有意義,很好;
14:22
But it was super algorithm-friendly算法友好.
276
850536
1904
這事與演算法超級速配,
14:25
The machine made製作 this decision決定 for us.
277
853219
2613
機器已為我們決定了。
14:27
A very important重要
but difficult conversation會話
278
855856
3497
非常重要但艱澀的
新聞事件可能被埋沒掉,
14:31
might威力 have been smothered窒息,
279
859377
1555
14:32
had FacebookFacebook的 been the only channel渠道.
280
860956
2696
倘若臉書是唯一的新聞渠道。
14:36
Now, finally最後, these systems系統
can also be wrong錯誤
281
864117
3797
最後,這些系統
也可能以不像人類犯錯的方式出錯。
14:39
in ways方法 that don't resemble類似 human人的 systems系統.
282
867938
2736
14:42
Do you guys remember記得 Watson沃森,
IBM'sIBM的 machine-intelligence機器智能 system系統
283
870698
2922
大家可還記得 IBM 的
機器智慧系統華生
14:45
that wiped the floor地板
with human人的 contestants參賽者 on Jeopardy危險?
284
873644
3128
在 Jeopardy 的
智力問答比賽中橫掃人類的對手?
14:49
It was a great player播放機.
285
877131
1428
它是個厲害的選手。
14:50
But then, for Final最後 Jeopardy危險,
Watson沃森 was asked this question:
286
878583
3569
在 Final Jeopardy 中
華生被問到:
14:54
"Its largest最大 airport飛機場 is named命名
for a World世界 War戰爭 IIII hero英雄,
287
882659
2932
「它的最大機場以二戰英雄命名,
14:57
its second-largest第二大
for a World世界 War戰爭 IIII battle戰鬥."
288
885615
2252
第二大機場以二戰戰場為名。」
14:59
(HumsHUMS Final最後 Jeopardy危險 music音樂)
289
887891
1378
(哼 Jeopardy 的音樂)
15:01
Chicago芝加哥.
290
889582
1182
「芝加哥」,
15:02
The two humans人類 got it right.
291
890788
1370
兩個人類選手的答案正確;
15:04
Watson沃森, on the other hand,
answered回答 "Toronto多倫多" --
292
892697
4348
華生則回答「多倫多」。
15:09
for a US city category類別!
293
897069
1818
這是個猜「美國」城市的問題啊!
15:11
The impressive有聲有色 system系統 also made製作 an error錯誤
294
899596
2901
這個厲害的系統也犯了
15:14
that a human人的 would never make,
a second-grader二年級 wouldn't不會 make.
295
902521
3651
人類永遠不會犯,
即使二年級學生也不會犯的錯誤。
15:18
Our machine intelligence情報 can fail失敗
296
906823
3109
我們的機器智慧可能敗在
15:21
in ways方法 that don't fit適合
error錯誤 patterns模式 of humans人類,
297
909956
3100
與人類犯錯模式迥異之處,
15:25
in ways方法 we won't慣於 expect期望
and be prepared準備 for.
298
913080
2950
在我們完全想不到、
沒準備的地方出錯。
15:28
It'd它會 be lousy糟糕 not to get a job工作
one is qualified合格 for,
299
916054
3638
得不到一份可勝任的工作
確實很糟糕,
15:31
but it would triple三倍 suck吮吸
if it was because of stack overflow溢出
300
919716
3727
但若起因是機器的子程式漫溢,
會是三倍的糟糕。
15:35
in some subroutine子程序.
301
923467
1432
15:36
(Laughter笑聲)
302
924923
1579
(笑聲)
15:38
In May可能 of 2010,
303
926526
2786
2010年五月,
15:41
a flash crash緊急 on Wall Street
fueled燃料 by a feedback反饋 loop循環
304
929336
4044
華爾街「賣出」演算法的
回饋迴路觸發了股市的急速崩盤,
15:45
in Wall Street's華爾街 "sell" algorithm算法
305
933404
3028
15:48
wiped a trillion dollars美元
of value in 36 minutes分鐘.
306
936456
4184
數萬億美元的市值
在36分鐘內蒸發掉了。
15:53
I don't even want to think
what "error錯誤" means手段
307
941722
2187
我甚至不敢想
若「錯誤」發生在致命的
自動武器上會是何種情況。
15:55
in the context上下文 of lethal致命
autonomous自主性 weapons武器.
308
943933
3589
16:01
So yes, humans人類 have always made製作 biases偏見.
309
949894
3790
是啊,人類總是有偏見。
16:05
Decision決策 makers製造商 and gatekeepers守門,
310
953708
2176
決策者和守門人
16:07
in courts法院, in news新聞, in war戰爭 ...
311
955908
3493
在法庭、新聞中、戰爭裡 …
都會犯錯;
16:11
they make mistakes錯誤;
but that's exactly究竟 my point.
312
959425
3038
但這正是我的觀點:
16:14
We cannot不能 escape逃逸
these difficult questions問題.
313
962487
3521
我們不能逃避這些困難的問題。
16:18
We cannot不能 outsource外包
our responsibilities責任 to machines.
314
966596
3516
我們不能把責任外包給機器。
16:22
(Applause掌聲)
315
970676
4208
(掌聲)
16:29
Artificial人造 intelligence情報 does not give us
a "Get out of ethics倫理 free自由" card.
316
977089
4447
人工智慧不會給我們
「倫理免責卡」。
16:34
Data數據 scientist科學家 Fred弗雷德 Benenson尼森
calls電話 this math-washing數學洗.
317
982742
3381
數據科學家費德·本森
稱之為「數學粉飾」。
16:38
We need the opposite對面.
318
986147
1389
我們需要相反的東西。
16:39
We need to cultivate培育 algorithm算法 suspicion懷疑,
scrutiny審查 and investigation調查.
319
987560
5388
我們需要培養懷疑、審視
和調查演算法的能力。
16:45
We need to make sure we have
algorithmic算法 accountability問責,
320
993380
3198
我們需確保演算法有人負責,
16:48
auditing審計 and meaningful富有意義的 transparency透明度.
321
996602
2445
能被審查,並且確實公開透明。
16:51
We need to accept接受
that bringing使 math數學 and computation計算
322
999380
3234
我們必須體認,
把數學和演算法帶入凌亂、
具價值觀的人類事務
16:54
to messy, value-laden價值負載 human人的 affairs事務
323
1002638
2970
16:57
does not bring帶來 objectivity客觀性;
324
1005632
2384
不能帶來客觀性;
17:00
rather, the complexity複雜 of human人的 affairs事務
invades侵入 the algorithms算法.
325
1008040
3633
相反地,人類事務的複雜性
侵入演算法。
17:04
Yes, we can and we should use computation計算
326
1012148
3487
是啊,我們可以、也應該用演算法
17:07
to help us make better decisions決定.
327
1015659
2014
來幫助我們做出更好的決定。
17:09
But we have to own擁有 up
to our moral道德 responsibility責任 to judgment判斷,
328
1017697
5332
但我們也需要在判斷中
加入道德義務,
17:15
and use algorithms算法 within that framework骨架,
329
1023053
2818
並在該框架內使用演算法,
17:17
not as a means手段 to abdicate放棄
and outsource外包 our responsibilities責任
330
1025895
4935
而不是像人與人間相互推卸那樣,
17:22
to one another另一個 as human人的 to human人的.
331
1030854
2454
就把責任轉移給機器。
17:25
Machine intelligence情報 is here.
332
1033807
2609
機器智慧已經到來,
17:28
That means手段 we must必須 hold保持 on ever tighter更緊
333
1036440
3421
這意味著我們必須更堅守
人類價值觀和人類倫理。
17:31
to human人的 values and human人的 ethics倫理.
334
1039885
2147
17:34
Thank you.
335
1042056
1154
謝謝。
17:35
(Applause掌聲)
336
1043234
5020
(掌聲)
Translated by Helen Chang
Reviewed by SF Huang

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com