ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

ゼイナップ・トゥフェックチー: 機械知能は人間の道徳性をより重要なものにする

Filmed:
1,648,711 views

機械知能はもう存在しており、私たちは既にそれを使って主体的な決定を行うようになっています。しかし人工知能が成長・向上していく複雑な道筋は理解しにくく、制御することも難しいのです。このトークで、科学技術に関する社会学を研究するゼイナップ・トゥフェックチーは、いかに知能機械が人間のエラーパーターンと合わない、そしてそのために予想も事前の備えもないやり方で失敗を犯すと警告を発します。「私たちは責任を機械に外部委託することはできない」と彼女は言います。そして「私たちは人間としての価値観と倫理観をさらに強固に持たねばならない」と。
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I started開始した my first jobジョブ
as a computerコンピューター programmerプログラマー
0
739
4122
私はコンピュータ・プログラマー
としての最初の仕事を
00:16
in my very first year of collegeカレッジ --
1
4885
1956
大学1年生で始めました
00:18
basically基本的に, as a teenagerティーンエイジャー.
2
6865
1507
まあ 10代だったんですね
00:20
Soonすぐに after I started開始した workingワーキング,
3
8889
1732
ある会社で ソフトウェアを
00:22
writing書き込み softwareソフトウェア in a company会社,
4
10645
1610
書くという仕事を 始めてまもなく
00:24
a managerマネージャー who worked働いた at the company会社
came来た down to where I was,
5
12799
3635
会社のマネージャーが
私のところに来て
00:28
and he whisperedささやいた to me,
6
16458
1268
こうささやきました
00:30
"Can he tell if I'm lying嘘つき?"
7
18229
2861
「僕の嘘 彼にばれてる?」
00:33
There was nobody誰も elseelse in the roomルーム.
8
21806
2077
部屋には他に誰もいません
00:37
"Can who tell if you're lying嘘つき?
And why are we whisperingささやく?"
9
25032
4389
「誰にばれてるって言うんです?
それにどうしてひそひそ声で?」
00:42
The managerマネージャー pointed尖った
at the computerコンピューター in the roomルーム.
10
30266
3107
マネージャーは
室内のコンピュータを指さして
00:45
"Can he tell if I'm lying嘘つき?"
11
33397
3096
「僕の嘘 彼にばれてる?」
00:49
Well, that managerマネージャー was having持つ
an affair事件 with the receptionist受付.
12
37613
4362
実はこのマネージャー
受付係と浮気してたんです
00:53
(Laughter笑い)
13
41999
1112
(笑)
00:55
And I was still a teenagerティーンエイジャー.
14
43135
1766
私はまだ10代でした
00:57
So I whisper-shoutedささやく叫んだ back to him,
15
45447
2019
だからささやき声で
彼に叫び返しました
00:59
"Yes, the computerコンピューター can tell
if you're lying嘘つき."
16
47490
3624
「ええ コンピュータには
お見通しですよ」って
01:03
(Laughter笑い)
17
51138
1806
(笑)
01:04
Well, I laughed笑った, but actually実際に,
the laugh's笑い on me.
18
52968
2923
笑っちゃいましたが 実は
その笑いは自分に返ってきました
01:07
Nowadays今日, there are computational計算上の systemsシステム
19
55915
3268
今日 コンピュータ・システムは
01:11
that can suss大胆 out
emotional感情の states and even lying嘘つき
20
59207
3548
人間の顔画像を処理することによって
01:14
from processing処理 human人間 faces.
21
62779
2044
感情や 嘘まで見抜けるんです
01:17
Advertisers広告主 and even governments政府
are very interested興味がある.
22
65248
4153
広告主や 政府までもが
非常に関心を寄せています
01:22
I had become〜になる a computerコンピューター programmerプログラマー
23
70319
1862
コンピュータプログラマーに
私がなったのは
01:24
because I was one of those kids子供たち
crazy狂った about math数学 and science科学.
24
72205
3113
子どもの頃から数学と科学が
熱狂的に好きだったからです
01:27
But somewhereどこかで along一緒に the lineライン
I'd learned学んだ about nuclear weapons兵器,
25
75942
3108
しかしその過程で
核兵器についても学び
01:31
and I'd gotten得た really concerned心配している
with the ethics倫理 of science科学.
26
79074
2952
科学の倫理について
非常に懸念するようになりました
01:34
I was troubled困った.
27
82050
1204
悩みました
01:35
Howeverしかしながら, because of family家族 circumstances状況,
28
83278
2641
しかし 家庭の事情で
01:37
I alsoまた、 needed必要な to start開始 workingワーキング
as soonすぐに as possible可能.
29
85943
3298
私はできるだけ早く
働き始めなければなりませんでした
01:41
So I thought to myself私自身, hey,
let me pickピック a technicalテクニカル fieldフィールド
30
89265
3299
それでひそかに考えました
技術者として
01:44
where I can get a jobジョブ easily簡単に
31
92588
1796
簡単に職が得られて
01:46
and where I don't have to deal対処
with any troublesome面倒な questions質問 of ethics倫理.
32
94408
4018
倫理という厄介な問題を何も
考えなくていい分野の仕事はないかと
01:51
So I picked選んだ computersコンピュータ.
33
99022
1529
それで選んだのがコンピュータです
01:52
(Laughter笑い)
34
100575
1104
(笑)
01:53
Well, ha, ha, ha!
All the laughs笑う are on me.
35
101703
3410
ハハ 笑っちゃう
自分のことを笑ってるんです
01:57
Nowadays今日, computerコンピューター scientists科学者
are building建物 platformsプラットフォーム
36
105137
2754
近頃 コンピュータ科学者は
01:59
that controlコントロール what a billion
people see everyすべて day.
37
107915
4209
10億人が毎日見ているものを制御する
プラットフォームを作っています
02:05
They're developing現像 cars
that could decide決めます who to run走る over.
38
113052
3822
誰をひき殺すか決定できる
車を開発しています
02:09
They're even building建物 machines機械, weapons兵器,
39
117707
3213
戦争で人間を殺すかもしれないような
02:12
that mightかもしれない kill殺します human人間 beings存在 in war戦争.
40
120944
2285
機械や兵器さえも作っています
02:15
It's ethics倫理 all the way down.
41
123253
2771
全てにおいて重要になるのが倫理です
02:19
Machine機械 intelligenceインテリジェンス is here.
42
127183
2058
機械知能は もう存在しています
02:21
We're now usingを使用して computation計算
to make all sortソート of decisions決定,
43
129823
3474
私たちは今や コンピュータを使って
あらゆる種類の決定を下し
02:25
but alsoまた、 new新しい kinds種類 of decisions決定.
44
133321
1886
さらに新しい類の決定も下します
02:27
We're asking尋ねる questions質問 to computation計算
that have no singleシングル right answers答え,
45
135231
5172
私たちは 単一の正答がない問題の答えを
コンピュータに尋ねています
02:32
that are subjective主観的
46
140427
1202
その問題とは 主観的で
02:33
and open-ended開放的な and value-laden価値のある.
47
141653
2325
オープンエンドで
価値観にかかわるものです
02:36
We're asking尋ねる questions質問 like,
48
144002
1758
私たちがする質問はこんなふうです
02:37
"Who should the company会社 hire雇う?"
49
145784
1650
「誰を社員に採用すべきか?」
02:40
"Whichどの update更新 from whichどの friend友人
should you be shown示された?"
50
148096
2759
「どの友達からの新着情報を
表示すべきか?」
02:42
"Whichどの convict罪を犯す is more
likelyおそらく to reoffend再犯?"
51
150879
2266
「再犯する可能性の高い受刑者は誰か?」
02:45
"Whichどの newsニュース item項目 or movie映画
should be recommendedお勧め to people?"
52
153514
3054
「人々に勧めるべき
ニュースや映画はどれか?」
02:48
Look, yes, we've私たちは been usingを使用して
computersコンピュータ for a while,
53
156592
3372
確かに私たちは しばらくの間
コンピュータを使ってきました
02:51
but this is different異なる.
54
159988
1517
しかしこれは違います
02:53
This is a historical歴史的 twistねじれ,
55
161529
2067
これは歴史的なひずみです
02:55
because we cannotできない anchorアンカー computation計算
for suchそのような subjective主観的 decisions決定
56
163620
5337
なぜならそのような主観的な決定を
コンピュータには頼れないからです
03:00
the way we can anchorアンカー computation計算
for flying飛行 airplanes飛行機, building建物 bridges,
57
168981
5420
飛行機を飛ばしたり 建物を建てたり
03:06
going to the moon.
58
174425
1259
月に行く場合とは違うんです
03:08
Are airplanes飛行機 saferより安全な?
Did the bridgeブリッジ sway揺れる and fall?
59
176449
3259
飛行機の方が安全か?
その橋は揺れたり落ちたりしたか?
03:11
There, we have agreed-upon合意された,
fairlyかなり clearクリア benchmarksベンチマーク,
60
179732
4498
そこでは合意された
かなり明確な基準があり
03:16
and we have laws法律 of nature自然 to guideガイド us.
61
184254
2239
自然の法則が私たちを導いてくれます
03:18
We have no suchそのような anchorsアンカー and benchmarksベンチマーク
62
186517
3394
私たちがそのような
支えや基準を何も持っていないのが
03:21
for decisions決定 in messy厄介な human人間 affairs事務.
63
189935
3963
人間くさい事柄における
厄介な決定についてです
03:25
To make things more complicated複雑な,
our softwareソフトウェア is getting取得 more powerful強力な,
64
193922
4237
もっと複雑なことに
ソフトウェアは強力になりつつあります
03:30
but it's alsoまた、 getting取得 lessもっと少なく
transparentトランスペアレント and more complex複合体.
65
198183
3773
その一方で 透明性を減らし
複雑さを増してもいるのです
03:34
Recently最近, in the past過去 decade10年,
66
202542
2040
ここ10年のあいだ
03:36
complex複合体 algorithmsアルゴリズム
have made great strides歩み.
67
204606
2729
複雑なアルゴリズムは
大きく前進しました
03:39
They can recognize認識する human人間 faces.
68
207359
1990
人間の顔を認識できます
03:41
They can decipher解読する handwriting手書き.
69
209985
2055
手書き文字を読み取れます
03:44
They can detect検出する creditクレジット cardカード fraud詐欺
70
212436
2066
クレジットカードの不正使用を探知し
03:46
and blockブロック spamスパム
71
214526
1189
スパムをブロックし
03:47
and they can translate翻訳する betweenの間に languages言語.
72
215739
2037
言語の翻訳もできます
03:49
They can detect検出する tumors腫瘍 in medical医療 imagingイメージング.
73
217800
2574
医用イメージングで
腫瘍を探しあてることもできます
03:52
They can beatビート humans人間 in chessチェス and Go.
74
220398
2205
チェスや碁で人間を
打ち負かすこともできます
03:55
Much of this progress進捗 comes来る
from a method方法 calledと呼ばれる "machine機械 learning学習."
75
223264
4504
この進歩の多くは 「機械学習」と
呼ばれる方法から成り立っています
04:00
Machine機械 learning学習 is different異なる
than traditional伝統的な programmingプログラミング,
76
228175
3187
機械学習は コンピュータに
詳細で正確、綿密な指示を与える―
04:03
where you give the computerコンピューター
detailed詳細な, exact正確, painstaking骨の折れる instructions指示.
77
231386
3585
伝統的なプログラミングとは異なります
04:07
It's more like you take the systemシステム
and you feedフィード it lots of dataデータ,
78
235378
4182
機械学習は システムに 大量のデータを
しこたま詰め込むやり方です
04:11
includingを含む unstructured構造化されていない dataデータ,
79
239584
1656
そこには非構造化データという
04:13
like the kind種類 we generate生成する
in our digitalデジタル lives人生.
80
241264
2278
人間がデジタルライフで
生成する類のものも含まれます
04:15
And the systemシステム learns学ぶ
by churningチャーニング throughを通して this dataデータ.
81
243566
2730
そしてシステムはこのデータを
組み合わせながら学習します
04:18
And alsoまた、, crucially決定的に,
82
246669
1526
そしてまた重要なことに
04:20
these systemsシステム don't operate操作する
under a single-answer一回答 logic論理.
83
248219
4380
これらのシステムは
答が単一になる論理で動いてはいません
04:24
They don't produce作物 a simple単純 answer回答;
it's more probabilistic確率的:
84
252623
2959
単純に回答を与えるのではなく
もっと確率論的です
04:27
"This one is probably多分 more like
what you're looking for."
85
255606
3483
「これはおそらくあなたが
探しているものにより近いでしょう」
04:32
Now, the upside逆さま is:
this method方法 is really powerful強力な.
86
260023
3070
これの良い面は
この方法が非常に強力であることです
04:35
The head of Google'sGoogleの AIAI systemsシステム calledと呼ばれる it,
87
263117
2076
GoogleのAIシステムのトップはこれを
04:37
"the unreasonable不合理な effectiveness効果 of dataデータ."
88
265217
2197
「データの理不尽なほどの強力さ」
と呼んでいます
04:39
The downside欠点 is,
89
267791
1353
このシステムの悪い面は
04:41
we don't really understandわかる
what the systemシステム learned学んだ.
90
269738
3071
これが何を学習しているのか
私たちはそれほど理解していないことです
04:44
In fact事実, that's its powerパワー.
91
272833
1587
実際 その強力さが問題なのです
04:46
This is lessもっと少なく like giving与える
instructions指示 to a computerコンピューター;
92
274946
3798
これはコンピュータに
指示を与えるというよりは
04:51
it's more like trainingトレーニング
a puppy-machine-creature子犬 - 機械 - 生き物
93
279200
4064
むしろ子犬のような生き物として
訓練するようなものです
04:55
we don't really understandわかる or controlコントロール.
94
283288
2371
その機械をそれほど
理解も制御もできていないのにです
04:58
So this is our problem問題.
95
286362
1551
これは問題です
05:00
It's a problem問題 when this artificial人工的な
intelligenceインテリジェンス systemシステム gets取得 things wrong違う.
96
288427
4262
この人工知能システムが
誤りを犯したときだけでなく
05:04
It's alsoまた、 a problem問題
when it gets取得 things right,
97
292713
3540
正しいことをした場合にも
問題が生じます
05:08
because we don't even know whichどの is whichどの
when it's a subjective主観的 problem問題.
98
296277
3628
なぜなら主観的な問題の場合
私たちには正誤さえも分からないからです
05:11
We don't know what this thing is thinking考え.
99
299929
2339
私たちはこの物体が
何を考えているか知りません
05:15
So, consider検討する a hiring雇用 algorithmアルゴリズム --
100
303493
3683
ですから たとえば雇用アルゴリズムを
考えてみましょう
05:20
a systemシステム used to hire雇う people,
usingを使用して machine-learning機械学習 systemsシステム.
101
308123
4311
社員を雇う際に使われるシステムで
機械学習システムを使っています
05:25
Suchそのような a systemシステム would have been trained訓練された
on previous employees'従業員の dataデータ
102
313052
3579
そのようなシステムは過去の従業員の
データに基づいて訓練されています
05:28
and instructed指示された to find and hire雇う
103
316655
2591
そしてそのシステムが指示するのは
05:31
people like the existing既存の
high高い performersパフォーマー in the company会社.
104
319270
3038
その会社に在籍する業績優秀者に似た
人材を探し雇うことです
05:34
Soundsサウンド good.
105
322814
1153
良さそうですね
05:35
I once一度 attended出席した a conference会議
106
323991
1999
以前ある会議に
出席した折のことですが
05:38
that brought持ってきた together一緒に
human人間 resourcesリソース managersマネージャー and executivesエグゼクティブ,
107
326014
3125
そこには人事部のマネージャーと
執行役が集まっていました
05:41
high-level上級 people,
108
329163
1206
高い職位の人たちで
05:42
usingを使用して suchそのような systemsシステム in hiring雇用.
109
330393
1559
そのようなシステムを
雇用に活用しています
05:43
They were superスーパー excited興奮した.
110
331976
1646
彼らは非常にワクワクしていました
05:45
They thought that this would make hiring雇用
more objective目的, lessもっと少なく biased偏った,
111
333646
4653
彼らの考えでは このシステムは
より客観的で偏見の少ない雇用を行い
05:50
and give women女性
and minoritiesマイノリティ a better shotショット
112
338323
3000
マネージャーの偏見に対して
女性や少数派の人々に
05:53
againstに対して biased偏った human人間 managersマネージャー.
113
341347
2188
より良い機会を与えるものでした
05:55
And look -- human人間 hiring雇用 is biased偏った.
114
343559
2843
そうです 
雇用には偏見が混じるのです
05:59
I know.
115
347099
1185
私は知っています
06:00
I mean, in one of my early早い jobsジョブ
as a programmerプログラマー,
116
348308
3005
ある職場で プログラマーとして
働きだした頃
06:03
my immediate即時 managerマネージャー would sometimes時々
come down to where I was
117
351337
3868
直属のマネージャーが
時々私のところに来ました
06:07
really early早い in the morning
or really late遅く in the afternoon午後,
118
355229
3753
それも早朝とか夕方にです
06:11
and she'd彼女は say, "Zeynepゼイネプ,
let's go to lunchランチ!"
119
359006
3062
そして彼女はこう言うんです
「ゼイナップ ランチ行きましょ」
06:14
I'd be puzzled困惑 by the weird奇妙な timingタイミング.
120
362724
2167
おかしなタイミングで
全く訳が分かりませんでした
06:16
It's 4pm午後. Lunchランチ?
121
364915
2129
午後4時にランチ?
06:19
I was broke壊れた, so free無料 lunchランチ. I always went行った.
122
367068
3094
私はお金がなかったので おごりでした
いつも行きました
06:22
I later後で realized実現した what was happeningハプニング.
123
370618
2067
後で何が起こっていたのか悟りました
06:24
My immediate即時 managersマネージャー
had not confessed告白した to their彼らの higher-ups上層階
124
372709
4546
直属のマネージャーは上層部に
06:29
that the programmerプログラマー they hired雇われた
for a serious深刻な jobジョブ was a teen十代 girl女の子
125
377279
3113
重要な仕事のために雇ったのが
06:32
who wore着て jeansジーンズ and sneakersスニーカー to work.
126
380416
3930
ジーンズとスニーカーで仕事をする
10代女子だと言ってなかったんです
06:37
I was doing a good jobジョブ,
I just looked見た wrong違う
127
385174
2202
私は良い仕事ぶりだったのに
体裁が悪くて
06:39
and was the wrong違う age年齢 and gender性別.
128
387400
1699
年齢や性別の点でも
良くなかったんです
06:41
So hiring雇用 in a gender-性別- and race-blindレースブラインド way
129
389123
3346
ですから性別や人種に
惑わされない形での雇用は
06:44
certainly確かに sounds good to me.
130
392493
1865
非常に良いことだと
私には思えます
06:47
But with these systemsシステム,
it is more complicated複雑な, and here'sここにいる why:
131
395031
3341
でもこのシステムを用いると
事態はより複雑になります なぜなら
06:50
Currently現在, computational計算上の systemsシステム
can infer推論 all sortsソート of things about you
132
398968
5791
現在コンピュータシステムは
あなたに関するあらゆる類のことを
06:56
from your digitalデジタル crumbsパン粉,
133
404783
1872
デジタル情報の断片から
推測できるからです
06:58
even if you have not
disclosed開示された those things.
134
406679
2333
自分が開示していなくてもです
07:01
They can infer推論 your sexual性的 orientationオリエンテーション,
135
409506
2927
システムはあなたの性的志向や
07:04
your personality traits形質,
136
412994
1306
性格特徴や
07:06
your political政治的 leanings傾倒.
137
414859
1373
政治的傾向を推測できます
07:08
They have predictive予測的 powerパワー
with high高い levelsレベル of accuracy正確さ.
138
416830
3685
システムは高水準の正確さで
予測する力を持っています
07:13
Remember忘れない -- for things
you haven't持っていない even disclosed開示された.
139
421362
2578
思い出してください
開示さえしていない事柄をですよ
07:15
This is inference推論.
140
423964
1591
これが推測です
07:17
I have a friend友人 who developed発展した
suchそのような computational計算上の systemsシステム
141
425579
3261
ある友達は
そのようなコンピュータシステムを
07:20
to predict予測する the likelihood尤度
of clinical臨床的 or postpartum産後 depressionうつ病
142
428864
3641
病的な あるいは産後の 抑うつの可能性を
予測するために開発しています
07:24
from socialソーシャル mediaメディア dataデータ.
143
432529
1416
SNSのデータを用いるんです
07:26
The results結果 are impressive印象的な.
144
434676
1427
結果は素晴らしいです
07:28
Her systemシステム can predict予測する
the likelihood尤度 of depressionうつ病
145
436492
3357
彼女のシステムは
うつ罹患の可能性を
07:31
months数ヶ月 before the onset開始 of any symptoms症状 --
146
439873
3903
症状が現れる数か月前に
予測できるのです
07:35
months数ヶ月 before.
147
443800
1373
数か月も前ですよ
07:37
No symptoms症状, there's prediction予測.
148
445197
2246
症状が全くない段階での予測です
07:39
She hopes希望 it will be used
for early早い intervention介入. Great!
149
447467
4812
彼女はこれを早期介入のために
活用したがっています 素晴らしい!
07:44
But now put this in the contextコンテキスト of hiring雇用.
150
452911
2040
でもこれを雇用の文脈で
考えてみましょう
07:48
So at this human人間 resourcesリソース
managersマネージャー conference会議,
151
456027
3046
例の 人事マネージャーの会議では
07:51
I approachedアプローチした a high-level上級 managerマネージャー
in a very large company会社,
152
459097
4709
私はある非常に大きな企業の
高職位のマネージャーに近づき
07:55
and I said to her, "Look,
what if, unbeknownst知らない to you,
153
463830
4578
こう言いました
「まだご存じないこととは思いますが
08:00
your systemシステム is weeding除草 out people
with high高い future未来 likelihood尤度 of depressionうつ病?
154
468432
6549
もしそのシステムが 将来うつになる可能性が
高い人を排除しているとしたらどうでしょう?
08:07
They're not depressed落ち込んだ now,
just maybe in the future未来, more likelyおそらく.
155
475761
3376
今ではなく 
将来そうなる可能性が高い人です
08:11
What if it's weeding除草 out women女性
more likelyおそらく to be pregnant妊娠している
156
479923
3406
妊娠する可能性の
高い女性を排除しているとしたら?
08:15
in the next year or two
but aren'tない pregnant妊娠している now?
157
483353
2586
来年か再来年のことで
今は妊娠していない場合ですよ?
08:18
What if it's hiring雇用 aggressive積極的な people
because that's your workplace職場 culture文化?"
158
486844
5636
もし職場の文化に合っているからと
攻撃的な人が雇われたらどうします?」
08:25
You can't tell this by looking
at gender性別 breakdowns故障.
159
493173
2691
性別の構成からは
そのことを読み取れません
08:27
Those mayかもしれない be balancedバランス.
160
495888
1502
構成比はバランスが取れています
08:29
And since以来 this is machine機械 learning学習,
not traditional伝統的な codingコーディング,
161
497414
3557
これは機械学習で
伝統的なプログラムではないので
08:32
there is no variable変数 there
labeledラベルされた "higher高い riskリスク of depressionうつ病,"
162
500995
4907
たとえば「うつハイリスク」とか
「妊娠ハイリスク」
08:37
"higher高い riskリスク of pregnancy妊娠,"
163
505926
1833
「攻撃的な人物度」
08:39
"aggressive積極的な guy scale規模."
164
507783
1734
などの変数は登場しません
08:41
Not only do you not know
what your systemシステム is selecting選択する on,
165
509995
3679
システムが何に基づいて選択しているのか
分からないばかりか
08:45
you don't even know
where to beginベギン to look.
166
513698
2323
どうすれば分かるのかの
手がかりもありません
08:48
It's a black boxボックス.
167
516045
1246
ブラックボックスなんです
08:49
It has predictive予測的 powerパワー,
but you don't understandわかる it.
168
517315
2807
システムには予測力がありますが
人間には理解できない代物です
08:52
"What safeguards保障措置," I asked尋ねた, "do you have
169
520486
2369
「どんな安全対策をしていますか?
08:54
to make sure that your black boxボックス
isn't doing something shady日陰?"
170
522879
3673
あなたのブラックボックスが
やましいことをしないようにです」
09:00
She looked見た at me as if I had
just stepped足踏みした on 10 puppy子犬 tails.
171
528863
3878
彼女は子犬の尻尾を10匹分も踏みつけた
人でなしを見るかのような顔になりました
09:04
(Laughter笑い)
172
532765
1248
(笑)
09:06
She stared見つめた at me and she said,
173
534037
2041
彼女は私をじっと見て言いました
09:08
"I don't want to hear聞く
another別の wordワード about this."
174
536556
4333
「これについては
もう何も聞きたくない」
09:13
And she turned回した around and walked歩いた away.
175
541458
2034
そして彼女は踵を返して
行ってしまいました
09:16
Mindマインド you -- she wasn'tなかった rude失礼.
176
544064
1486
彼女が失礼なわけではありません
09:17
It was clearlyはっきりと: what I don't know
isn't my problem問題, go away, death stare見詰める.
177
545574
6308
明らかに 聞かなかったことにしたい
あっち行ってという憎悪の眼差しでした
09:23
(Laughter笑い)
178
551906
1246
(笑)
09:25
Look, suchそのような a systemシステム
mayかもしれない even be lessもっと少なく biased偏った
179
553862
3839
いいですか そのようなシステムは
ある意味 偏見の程度は
09:29
than human人間 managersマネージャー in some ways方法.
180
557725
2103
人間のマネージャーよりは
少ないかもしれません
09:31
And it could make monetary金銭的な senseセンス.
181
559852
2146
費用の面でも
理にかなっているでしょう
09:34
But it could alsoまた、 lead
182
562573
1650
でもそれはまた
09:36
to a steady安定した but stealthy隠密
shutting閉鎖する out of the jobジョブ market市場
183
564247
4748
ひそやかながら確実に
労働市場からの
09:41
of people with higher高い riskリスク of depressionうつ病.
184
569019
2293
うつハイリスク者の締め出しに
つながりかねません
09:43
Is this the kind種類 of society社会
we want to buildビルドする,
185
571753
2596
これが私たちの築きたい
社会の姿でしょうか?
09:46
withoutなし even knowing知っている we've私たちは done完了 this,
186
574373
2285
こんなことをしていることさえ
私たちは知らないんです
09:48
because we turned回した decision-making意思決定
to machines機械 we don't totally完全に understandわかる?
187
576682
3964
完全には理解していない機械に
意思決定をさせているんですからね
09:53
Anotherもう一つ problem問題 is this:
188
581265
1458
もう1つの問題はこれです
09:55
these systemsシステム are oftenしばしば trained訓練された
on dataデータ generated生成された by our actions行動,
189
583314
4452
このようなシステムの訓練は往々にして
人間の行動データに基づいています
09:59
human人間 imprints刻印.
190
587790
1816
人間らしさが刻み込まれています
10:02
Well, they could just be
reflecting反射する our biasesバイアス,
191
590188
3808
それらは私たちの偏見を
反映している可能性があり
10:06
and these systemsシステム
could be pickingピッキング up on our biasesバイアス
192
594020
3593
これらのシステムは
私たちの偏見を拾い上げ
10:09
and amplifying増幅する them
193
597637
1313
それを増幅して
10:10
and showing表示 them back to us,
194
598974
1418
私たちに示し返しかねません
10:12
while we're telling伝える ourselves自分自身,
195
600416
1462
私たちはこんな言いっぷりなのにですよ
10:13
"We're just doing objective目的,
neutral中性 computation計算."
196
601902
3117
「私たちはまさしく客観的です
中立的なコンピューティングですから」
10:18
Researchers研究者 found見つけた that on GoogleGoogle,
197
606314
2677
研究者たちは Googleにおいて
10:22
women女性 are lessもっと少なく likelyおそらく than men男性
to be shown示された jobジョブ ads広告 for high-paying高給 jobsジョブ.
198
610134
5313
女性には 高給の求人広告が
表示されにくいことを見出しました
10:28
And searching検索 for African-Americanアフリカ系アメリカ人 names名前
199
616463
2530
また アフリカ系アメリカ人の
名前を検索すると
10:31
is more likelyおそらく to bring持参する up ads広告
suggesting提案する criminal犯罪者 history歴史,
200
619017
4706
犯罪歴をほのめかす広告が
高確率で表示されます
10:35
even when there is noneなし.
201
623747
1567
犯罪歴がない人の場合でもそうです
10:38
Suchそのような hidden隠された biasesバイアス
and black-boxブラックボックス algorithmsアルゴリズム
202
626693
3549
そのような隠れた偏見と
ブラックボックスのアルゴリズムを
10:42
that researchers研究者 uncover明らかにする sometimes時々
but sometimes時々 we don't know,
203
630266
3973
研究者が暴くこともありますが
知られない場合もあります
10:46
can have life-altering人生を変える consequences結果.
204
634263
2661
それらは人生を
変える結果になりうるのです
10:49
In Wisconsinウィスコンシン州, a defendant被告
was sentenced宣告された to six6 years in prison刑務所
205
637958
4159
ウィスコンシンで ある被告が
刑期6年の判決を受けました
10:54
for evading回避する the police警察.
206
642141
1355
警察官から逃げたためです
10:56
You mayかもしれない not know this,
207
644824
1186
ご存知ないかもしれませんが
10:58
but algorithmsアルゴリズム are increasinglyますます used
in parole仮釈放 and sentencing判決 decisions決定.
208
646034
3998
仮釈放や判決の決定においても
アルゴリズムの使用が増えています
11:02
He wanted to know:
How is this scoreスコア calculated計算された?
209
650056
2955
彼はこのスコアが計算される仕組みを
知りたいと思いました
11:05
It's a commercial商業の black boxボックス.
210
653795
1665
それは商用のブラックボックスです
11:07
The company会社 refused拒否された to have its algorithmアルゴリズム
be challenged挑戦した in open開いた court裁判所.
211
655484
4205
企業はアルゴリズムが
公開の法廷で検証されるのを拒みました
11:12
But ProPublicaプロ公立, an investigative調査的
nonprofit非営利団体, audited監査された that very algorithmアルゴリズム
212
660396
5532
でもProPublicaという非営利の調査団体が
そのアルゴリズムを監査しました
11:17
with what publicパブリック dataデータ they could find,
213
665952
2016
入手可能だった
公開データを用いてです
11:19
and found見つけた that its outcomes結果 were biased偏った
214
667992
2316
そして分かったのは
結果には偏見が影響しており
11:22
and its predictive予測的 powerパワー
was dismal陰鬱な, barelyかろうじて better than chanceチャンス,
215
670332
3629
予測力はひどいものでした
偶然よりわずかにましな程度です
11:25
and it was wrongly間違って labelingラベリング
black defendants被告 as future未来 criminals犯罪者
216
673985
4416
黒人の被告は 白人の被告に比べて
将来犯罪を起こす確率が
11:30
at twice二度 the rateレート of white defendants被告.
217
678425
3895
2倍高いと
誤ってラベリングされていました
11:35
So, consider検討する this case場合:
218
683891
1564
ではこのケースを考えてみましょう
11:38
This woman女性 was late遅く
pickingピッキング up her godsister神様の姉妹
219
686103
3852
女性のほうは予定より遅れて
親友を迎えに行くため
11:41
from a school学校 in Browardブロワード County, Floridaフロリダ州,
220
689979
2075
フロリダ州ブロワード郡の
ある学校に向かって
11:44
runningランニング down the street通り
with a friend友人 of hers彼女たち.
221
692757
2356
友達と一緒に道を走っていました
11:47
They spotted見つかった an unlockedロックされていない kid's子供の bike自転車
and a scooterスクーター on a porchポーチ
222
695137
4099
ふたりはある家の玄関で 無施錠の
子ども用の自転車とキックスケーターを見つけ
11:51
and foolishly愚かな jumped飛び降りた on it.
223
699260
1632
愚かにもそれに飛び乗りました
11:52
As they were speedingスピード off,
a woman女性 came来た out and said,
224
700916
2599
走り去ろうとしたところ
女性が出てきて言いました
11:55
"Hey! That's my kid's子供の bike自転車!"
225
703539
2205
「ちょっと!
それはうちの子の自転車よ!」
11:57
They dropped落とした it, they walked歩いた away,
but they were arrested逮捕された.
226
705768
3294
ふたりは降りて 歩き去りましたが
逮捕されました
12:01
She was wrong違う, she was foolish愚かな,
but she was alsoまた、 just 18.
227
709086
3637
彼女は間違っていたし愚かでした
でもまだ18歳です
12:04
She had a coupleカップル of juvenile少年 misdemeanors軽犯罪.
228
712747
2544
彼女は2回の非行歴がありました
12:07
Meanwhileその間, that man had been arrested逮捕された
for shoplifting万引き in Home Depotデポ --
229
715808
5185
一方 男性のほうは Home Depoで
万引きをして捕まりました
12:13
85 dollars'ドルは、 worth価値 of stuffもの,
a similar類似 petty些細な crime犯罪.
230
721017
2924
彼が万引きしたのは85ドル相当で
同じく軽犯罪ですが
12:16
But he had two prior前の
armed武装した robbery強盗 convictions信念.
231
724766
4559
彼は強盗で前科2犯でした
12:21
But the algorithmアルゴリズム scored得点する her
as high高い riskリスク, and not him.
232
729955
3482
でもアルゴリズムは 男性ではなく
女性の方をハイリスクと評価しました
12:26
Two years later後で, ProPublicaプロ公立 found見つけた
that she had not reoffended再犯.
233
734746
3874
その女性が2年後に再犯していないことを
ProPiblicaは明らかにしています
12:30
It was just hardハード to get a jobジョブ
for her with her record記録.
234
738644
2550
犯罪記録をもつ彼女が
職を得るのは実に困難でした
12:33
He, on the other handハンド, did reoffend再犯
235
741218
2076
一方 男性の方は再犯し
12:35
and is now servingサービング an eight-year8年
prison刑務所 term期間 for a later後で crime犯罪.
236
743318
3836
2つ目の犯罪のために
現在は8年間の収監中です
12:40
Clearly明らかに, we need to audit監査 our black boxesボックス
237
748088
3369
ブラックボックスに対して
監査が必要なのは明白です
12:43
and not have them have
this kind種類 of uncheckedチェックされていない powerパワー.
238
751481
2615
チェックしないままこの種の権力を
与えてはいけないのです
12:46
(Applause拍手)
239
754120
2879
(拍手)
12:50
Audits監査 are great and important重要,
but they don't solve解決する all our problems問題.
240
758087
4242
監査は偉大で重要ですが
それで全ての問題を解決できはしません
12:54
Take Facebook'sFacebookの powerful強力な
newsニュース feedフィード algorithmアルゴリズム --
241
762353
2748
Facebookのニュース・フィードの
強力なアルゴリズムの場合
12:57
you know, the one that ranksランク everything
and decides決定する what to showショー you
242
765125
4843
全てをランク付けし
全ての友達やフォロー中のページのなかで
13:01
from all the friends友達 and pagesページ you followフォローする.
243
769992
2284
何を見るべきか決定する仕組みですね
13:04
Should you be shown示された another別の baby赤ちゃん picture画像?
244
772898
2275
赤ちゃんの写真をもう1枚見るべきか?
13:07
(Laughter笑い)
245
775197
1196
(笑)
13:08
A sullenサレン note注意 from an acquaintance知り合い?
246
776417
2596
知り合いからの ご機嫌斜めのコメントは?
13:11
An important重要 but difficult難しい newsニュース item項目?
247
779449
1856
重要だけど難解なニュース記事は?
13:13
There's no right answer回答.
248
781329
1482
正答はありません
13:14
Facebookフェイスブック optimizes最適化する
for engagementエンゲージメント on the siteサイト:
249
782835
2659
Facebookはサイト上での
やりとりに応じて最適化します
13:17
likes好きな人, shares株式, commentsコメント.
250
785518
1415
「いいね」やシェア コメント
といったものです
13:20
In August8月 of 2014,
251
788168
2696
2014年8月
13:22
protests抗議 broke壊れた out in Fergusonファーガソン, Missouriミズーリ州,
252
790888
2662
ミズーリ州ファーガソンで
抗議運動が勃発しました
13:25
after the killing殺す of an African-Americanアフリカ系アメリカ人
teenagerティーンエイジャー by a white police警察 officer役員,
253
793574
4417
アフリカ系アメリカ人の10代が
白人の警察官に殺され
13:30
under murky暗い circumstances状況.
254
798015
1570
その状況が不審だったのです
13:31
The newsニュース of the protests抗議 was all over
255
799974
2007
抗議運動のニュースは
13:34
my algorithmicallyアルゴリズム的に
unfilteredフィルタリングされていない TwitterTwitter feedフィード,
256
802005
2685
フィルタリングされない
Twitterフィードを埋め尽くしました
13:36
but nowhereどこにも on my Facebookフェイスブック.
257
804714
1950
でもFacebookには何ら
表示されませんでした
13:39
Was it my Facebookフェイスブック friends友達?
258
807182
1734
Facebook上の友達との
関連でしょうか?
13:40
I disabled無効 Facebook'sFacebookの algorithmアルゴリズム,
259
808940
2032
私はFacebookのアルゴリズムを
無効にしました
13:43
whichどの is hardハード because Facebookフェイスブック
keeps維持する wanting欲しい to make you
260
811472
2848
Facebookはアルゴリズムの
管理下に置きたがるので
13:46
come under the algorithm'sアルゴリズム controlコントロール,
261
814344
2036
難しかったですけどね
13:48
and saw that my friends友達
were talking話す about it.
262
816404
2238
すると友達が 抗議運動のことを
話しているのが分かりました
13:50
It's just that the algorithmアルゴリズム
wasn'tなかった showing表示 it to me.
263
818666
2509
アルゴリズムが私に
見せなかっただけなんです
13:53
I researched研究した this and found見つけた
this was a widespread広範囲 problem問題.
264
821199
3042
調査して分かりましたが
これは広範囲にわたる問題でした
13:56
The storyストーリー of Fergusonファーガソン
wasn'tなかった algorithm-friendlyアルゴリズムに優しい.
265
824265
3813
ファーガソンの話題は
アルゴリズムに馴染まなかったんです
14:00
It's not "likable好きな."
266
828102
1171
「いいね」しにくいのです
14:01
Who'sだれの going to clickクリック on "like?"
267
829297
1552
誰が「いいね」します?
14:03
It's not even easy簡単 to commentコメント on.
268
831500
2206
コメントをするのさえ
容易じゃありません
14:05
Withoutなし likes好きな人 and commentsコメント,
269
833730
1371
「いいね」もコメントもないので
14:07
the algorithmアルゴリズム was likelyおそらく showing表示 it
to even fewer少ない people,
270
835125
3292
アルゴリズムは少数の人にしか
それを表示しません
14:10
so we didn't get to see this.
271
838441
1542
だから目にすることがなかったんです
14:12
Instead代わりに, that week週間,
272
840946
1228
そのかわり その週
14:14
Facebook'sFacebookの algorithmアルゴリズム highlighted強調表示された this,
273
842198
2298
Facebookのアルゴリズムが
ハイライトしたのは
14:16
whichどの is the ALSALS Ice Bucketバケツ Challengeチャレンジ.
274
844520
2226
ALSアイス・バケツ・チャレンジでした
14:18
Worthy価値ある cause原因; dumpダンプ ice water,
donate寄付する to charity慈善団体, fine.
275
846770
3742
価値のある目的で氷水をかぶり
チャリティに寄付 良いですね
14:22
But it was superスーパー algorithm-friendlyアルゴリズムに優しい.
276
850536
1904
でも極めてよく
アルゴリズムに馴染みます
14:25
The machine機械 made this decision決定 for us.
277
853219
2613
機械が私たちのために
これを決定したんです
14:27
A very important重要
but difficult難しい conversation会話
278
855856
3497
非常に重要だけれど難解な会話は
14:31
mightかもしれない have been smothered落ち着いた,
279
859377
1555
Facebookが唯一の経路の場合
14:32
had Facebookフェイスブック been the only channelチャネル.
280
860956
2696
抑え込まれてきたのかもしれません
14:36
Now, finally最後に, these systemsシステム
can alsoまた、 be wrong違う
281
864117
3797
さて最後にこれらのシステムは
14:39
in ways方法 that don't resemble似ている human人間 systemsシステム.
282
867938
2736
人間のシステムとは似つかない誤りを
犯しうるのです
14:42
Do you guys remember思い出す Watsonワトソン,
IBM'sIBMの machine-intelligenceマシンインテリジェンス systemシステム
283
870698
2922
皆さんはワトソンを覚えていますか
IBMの機械知能システムで
14:45
that wiped拭いた the floor
with human人間 contestants競技者 on Jeopardyジアパディー?
284
873644
3128
クイズ番組『ジェパディ!』で
対戦相手の人間を打ち負かしました
14:49
It was a great playerプレーヤー.
285
877131
1428
すごい選手だったんです
14:50
But then, for Final最後の Jeopardyジアパディー,
Watsonワトソン was asked尋ねた this question質問:
286
878583
3569
しかし最終問題で
ワトソンは こんな質問をされました
14:54
"Its largest最大 airport空港 is named名前
for a World世界 War戦争 IIII heroヒーロー,
287
882659
2932
「その地域最大の空港の名は
第二次世界大戦の英雄に由来し
14:57
its second-largest二番目に大きいです
for a World世界 War戦争 IIII battle戦い."
288
885615
2252
2番目の空港の名の由来は
第二次世界大戦中の戦いです」
14:59
(Humsハムズ Final最後の Jeopardyジアパディー music音楽)
289
887891
1378
(最終問題の音楽をハミング)
15:01
Chicagoシカゴ.
290
889582
1182
「シカゴ」
15:02
The two humans人間 got it right.
291
890788
1370
人間ふたりは正答でした
15:04
Watsonワトソン, on the other handハンド,
answered答えた "Torontoトロント" --
292
892697
4348
一方ワトソンの答えは
「トロント」
15:09
for a US cityシティ categoryカテゴリー!
293
897069
1818
米国の都市についての
問題だったのに!
15:11
The impressive印象的な systemシステム alsoまた、 made an errorエラー
294
899596
2901
この素晴らしいシステムも
エラーをするんです
15:14
that a human人間 would never make,
a second-grader2年生 wouldn'tしないだろう make.
295
902521
3651
人間はしないようなエラーです
2年生の子どもでもしません
15:18
Our machine機械 intelligenceインテリジェンス can fail失敗します
296
906823
3109
機械知能は失敗を犯すこともあるんです
15:21
in ways方法 that don't fitフィット
errorエラー patternsパターン of humans人間,
297
909956
3100
人間のエラーパターンとは
異なります
15:25
in ways方法 we won't〜されません expect期待する
and be prepared準備された for.
298
913080
2950
予想外であり 備えもできないような方法です
15:28
It'dそれは be lousy怠け者 not to get a jobジョブ
one is qualified修飾された for,
299
916054
3638
資質のある人が仕事を得られないのも
ひどい話ですが
15:31
but it would tripleトリプル suck吸う
if it was because of stackスタック overflowオーバーフロー
300
919716
3727
もしそれがプログラムのサブルーチンに伴う
スタックオーバーフローが原因なら
15:35
in some subroutineサブルーチン.
301
923467
1432
3倍ひどい話です
15:36
(Laughter笑い)
302
924923
1579
(笑)
15:38
In May5月 of 2010,
303
926526
2786
2010年5月
15:41
a flashフラッシュ crashクラッシュ on Wall Street通り
fueled給油された by a feedbackフィードバック loopループ
304
929336
4044
ウォールストリートの
「売り」アルゴリズムでの
15:45
in Wall Street'sストリート "sell売る" algorithmアルゴリズム
305
933404
3028
フィードバックループによって
瞬間暴落が起き
15:48
wiped拭いた a trillion1兆 dollarsドル
of value in 36 minutes.
306
936456
4184
36分間で1兆ドル相当の
損失が出ました
15:53
I don't even want to think
what "errorエラー" means手段
307
941722
2187
「エラー」の意味を
考えたくもないのが
15:55
in the contextコンテキスト of lethal致死
autonomous自律的 weapons兵器.
308
943933
3589
無人攻撃機の場合です
16:01
So yes, humans人間 have always made biasesバイアス.
309
949894
3790
ええ人間には 偏見がつきものです
16:05
Decision決定 makersメーカー and gatekeepersゲートキーパー,
310
953708
2176
意思決定者やゲートキーパー
16:07
in courts裁判所, in newsニュース, in war戦争 ...
311
955908
3493
法廷、ニュース、戦争・・・
16:11
they make mistakes間違い;
but that's exactly正確に my pointポイント.
312
959425
3038
そこではミスが生じますが
これこそ私の言いたいことです
16:14
We cannotできない escapeエスケープ
these difficult難しい questions質問.
313
962487
3521
これらの難問から
私たちは逃れられません
16:18
We cannotできない outsourceアウトソーシング
our responsibilities責任 to machines機械.
314
966596
3516
私たちは責任を
機械に外部委託することはできないのです
16:22
(Applause拍手)
315
970676
4208
(拍手)
16:29
Artificial人工的な intelligenceインテリジェンス does not give us
a "Get out of ethics倫理 free無料" cardカード.
316
977089
4447
人工知能は「倫理問題からの解放」カードを
私たちにくれたりしません
16:34
Dataデータ scientist科学者 Fredフレッド Benensonベネンソン
callsコール this math-washing数学洗濯.
317
982742
3381
データ科学者のフレッド・ベネンソンは
これを数学による洗脳だと呼びました
16:38
We need the opposite反対の.
318
986147
1389
私たちに必要なのは逆のものです
16:39
We need to cultivate耕す algorithmアルゴリズム suspicion疑い,
scrutiny精査 and investigation調査.
319
987560
5388
私たちはアルゴリズムを疑い
精査するようにならねばなりません
16:45
We need to make sure we have
algorithmicアルゴリズム的 accountability説明責任,
320
993380
3198
私たちは アルゴリズムについての
説明責任を持ち
16:48
auditing監査 and meaningful意味のある transparency透明性.
321
996602
2445
監査や意味のある透明化を
求めなければなりません
16:51
We need to accept受け入れる
that bringing持参 math数学 and computation計算
322
999380
3234
私たちは厄介で価値観にかかわる
人間くさい事柄に対して
16:54
to messy厄介な, value-laden価値のある human人間 affairs事務
323
1002638
2970
数学や計算機は
客観性をもたらしえないことを
16:57
does not bring持参する objectivity客観性;
324
1005632
2384
受け入れなければなりません
17:00
ratherむしろ, the complexity複雑 of human人間 affairs事務
invades侵入する the algorithmsアルゴリズム.
325
1008040
3633
むしろ人間くささのもつ複雑さが
アルゴリズムを管理するのです
17:04
Yes, we can and we should use computation計算
326
1012148
3487
確かに私たちは コンピュータを
良い決断を下す助けとして
17:07
to help us make better decisions決定.
327
1015659
2014
使いうるし そうすべきです
17:09
But we have to own自分の up
to our moral道徳 responsibility責任 to judgment判定,
328
1017697
5332
でも私たちは判断を下すことへの
自分の道徳的な責任を認め
17:15
and use algorithmsアルゴリズム within以内 that frameworkフレームワーク,
329
1023053
2818
そしてアルゴリズムを
その枠内で用いなければなりません
17:17
not as a means手段 to abdicate放棄する
and outsourceアウトソーシング our responsibilities責任
330
1025895
4935
自分の責任を放棄して
別の人間へ委ねることとは
17:22
to one another別の as human人間 to human人間.
331
1030854
2454
異なるのです
17:25
Machine機械 intelligenceインテリジェンス is here.
332
1033807
2609
機械知能はもう存在しています
17:28
That means手段 we must必須 holdホールド on ever tighterよりタイトな
333
1036440
3421
つまり私たちは
人間としての価値観や倫理感を
17:31
to human人間 values and human人間 ethics倫理.
334
1039885
2147
よりしっかり持たねばなりません
17:34
Thank you.
335
1042056
1154
ありがとうございました
17:35
(Applause拍手)
336
1043234
5020
(拍手)
Translated by Naoko Fujii
Reviewed by Misaki Sato

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com