ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: 为了让人们点击广告,我们正在建造一个反乌托邦

Filmed:
2,866,905 views

社会科技学家 Zeynep Tufekci 说,在一次次的鼠标点击中,我们正在建立一个由人工智能驱动的反乌托邦。在这场令人大开眼界的演讲里,她详细介绍了脸书、谷歌和亚马逊等公司如何利用算法来促使用户点击广告,同时同样的算法也被用来管理用户如何获取政治和社会信息。然而,这些机器并不是真正的威胁。我们需要了解的是,掌权者如何利用人工智能来控制我们——以及我们该如何来应对。
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voice语音 fears恐惧
of artificial人造 intelligence情报,
0
760
3536
当人们谈论起对于
人工智能的恐惧时
浮现在脑海里的
往往是失控的机器人
00:16
very often经常, they invoke调用 images图片
of humanoid人形 robots机器人 run amok疯狂地.
1
4320
3976
00:20
You know? Terminator终结者?
2
8320
1240
就像终结者一样
00:22
You know, that might威力 be
something to consider考虑,
3
10400
2336
这种担心固然有一定道理
但目前和我们相隔甚远
00:24
but that's a distant遥远 threat威胁.
4
12760
1856
我们也会对数字监控心生恐惧
00:26
Or, we fret烦恼 about digital数字 surveillance监控
5
14640
3456
这从过去的隐喻中就可以初见端倪
00:30
with metaphors隐喻 from the past过去.
6
18120
1776
例如乔治·奥威尔的著作 1984
00:31
"1984," George乔治 Orwell's奥威尔 "1984,"
7
19920
2656
最近再次登上热销榜
00:34
it's hitting the bestseller畅销书 lists名单 again.
8
22600
2280
00:37
It's a great book,
9
25960
1416
这是一本很好的书
但是书中的反乌托邦社会
并不是21世纪的正确缩影
00:39
but it's not the correct正确 dystopia异位
for the 21stST century世纪.
10
27400
3880
00:44
What we need to fear恐惧 most
11
32080
1416
我们最应该担心的
00:45
is not what artificial人造 intelligence情报
will do to us on its own拥有,
12
33520
4776
并不是人工智能本身
对我们的影响
00:50
but how the people in power功率
will use artificial人造 intelligence情报
13
38320
4736
而是掌权的人会怎样
利用人工智能
00:55
to control控制 us and to manipulate操作 us
14
43080
2816
来控制并摆布我们
00:57
in novel小说, sometimes有时 hidden,
15
45920
3136
通过新奇 有时是隐蔽的
01:01
subtle微妙 and unexpected意外 ways方法.
16
49080
3016
微妙以及不可预料的手段
01:04
Much of the technology技术
17
52120
1856
很多对我们的
01:06
that threatens威胁 our freedom自由
and our dignity尊严 in the near-term短期 future未来
18
54000
4336
自由和尊严有潜在威胁的科技
01:10
is being存在 developed发达 by companies公司
19
58360
1856
正在被那些收集
01:12
in the business商业 of capturing捕获
and selling销售 our data数据 and our attention注意
20
60240
4936
并贩卖我们的私人信息给广告商的
01:17
to advertisers广告商 and others其他:
21
65200
2256
公司开发出来
01:19
FacebookFacebook的, Google谷歌, Amazon亚马逊,
22
67480
3416
例如脸书 谷歌 亚马逊
01:22
Alibaba阿里巴巴, Tencent腾讯.
23
70920
1880
以及阿里巴巴和腾讯
现在 人工智能也开始强化
他们自身的业务
01:26
Now, artificial人造 intelligence情报 has started开始
bolsteringbolstering their business商业 as well.
24
74040
5496
01:31
And it may可能 seem似乎
like artificial人造 intelligence情报
25
79560
2096
看起来好像人工智能只不过
是网络广告的下一步
01:33
is just the next下一个 thing after online线上 ads广告.
26
81680
2856
01:36
It's not.
27
84560
1216
但并非如此
它是一个全新的类别
01:37
It's a jump in category类别.
28
85800
2456
01:40
It's a whole整个 different不同 world世界,
29
88280
2576
是一个完全不同的世界
并且有着极高的潜力
01:42
and it has great potential潜在.
30
90880
2616
它可以加快人们在很多
领域的学习与研究速度
01:45
It could accelerate加速 our understanding理解
of many许多 areas of study研究 and research研究.
31
93520
6920
01:53
But to paraphrase意译
a famous著名 Hollywood好莱坞 philosopher哲学家,
32
101120
3496
但就如好莱坞一名著名哲学家所言
惊人的潜力带来的是惊人的风险
01:56
"With prodigious惊人 potential潜在
comes prodigious惊人 risk风险."
33
104640
3640
02:01
Now let's look at a basic基本 fact事实
of our digital数字 lives生活, online线上 ads广告.
34
109120
3936
我们得明白关于数字生活
以及网络广告的基本事实
是吧 我们几乎把它们忽略了
02:05
Right? We kind of dismiss解雇 them.
35
113080
2896
02:08
They seem似乎 crude原油, ineffective不灵.
36
116000
1976
尽管它们看起来很粗糙
没什么说服力
02:10
We've我们已经 all had the experience经验
of being存在 followed其次 on the web卷筒纸
37
118000
4256
我们都曾在上网时
被网上的一些广告追踪过
它们是根据我们的浏览历史生成的
02:14
by an ad广告 based基于 on something
we searched搜索 or read.
38
122280
2776
02:17
You know, you look up a pair of boots靴子
39
125080
1856
比如 你搜索了一双皮靴
接下来的一周里 这双皮靴就
在网上如影随形的跟着你
02:18
and for a week, those boots靴子 are following以下
you around everywhere到处 you go.
40
126960
3376
02:22
Even after you succumb屈服于 and buy购买 them,
they're still following以下 you around.
41
130360
3656
即使你屈服了 买下了它们
广告也不会消失
我们已经习惯了这种
廉价粗暴的操纵
02:26
We're kind of inured习以为常 to that kind
of basic基本, cheap低廉 manipulation操作.
42
134040
3016
02:29
We roll our eyes眼睛 and we think,
"You know what? These things don't work."
43
137080
3400
还不屑一顾的想着
这东西对我没用的
但是别忘了 在网上
02:33
Except, online线上,
44
141720
2096
02:35
the digital数字 technologies技术 are not just ads广告.
45
143840
3600
广告并不是数字科技的全部
02:40
Now, to understand理解 that,
let's think of a physical物理 world世界 example.
46
148240
3120
为了便于理解 我们举几个
现实世界的例子
02:43
You know how, at the checkout查看 counters计数器
at supermarkets超级市场, near the cashier出纳员,
47
151840
4656
你知道为什么在超市收银台的旁边
02:48
there's candy糖果 and gum
at the eye level水平 of kids孩子?
48
156520
3480
要放一些小孩子
一眼就能看到的糖果吗
那是为了让孩子在父母面前撒娇
02:52
That's designed设计 to make them
whine抱怨 at their parents父母
49
160800
3496
就当他们马上要结账的时候
02:56
just as the parents父母
are about to sort分类 of check out.
50
164320
3080
03:00
Now, that's a persuasion劝说 architecture建筑.
51
168040
2640
那是一种说服架构
03:03
It's not nice不错, but it kind of works作品.
52
171160
3096
并不完美 但很管用
03:06
That's why you see it
in every一切 supermarket超级市场.
53
174280
2040
这也是每家超市惯用的伎俩
03:08
Now, in the physical物理 world世界,
54
176720
1696
在现实世界里
03:10
such这样 persuasion劝说 architectures架构
are kind of limited有限,
55
178440
2496
这种说服架构是有限制的
03:12
because you can only put
so many许多 things by the cashier出纳员. Right?
56
180960
4816
因为能放在收银台旁边的
东西是有限的 对吧
而且所有人看到的都是同样的糖果
03:17
And the candy糖果 and gum,
it's the same相同 for everyone大家,
57
185800
4296
03:22
even though虽然 it mostly大多 works作品
58
190120
1456
所以说大多数情况下
只是针对那些带着小孩的买主
03:23
only for people who have
whiny爱发牢骚 little humans人类 beside them.
59
191600
4040
这些是现实世界的种种局限
03:29
In the physical物理 world世界,
we live生活 with those limitations限制.
60
197160
3920
03:34
In the digital数字 world世界, though虽然,
61
202280
1936
但在网络世界里
说服架构可以千变万化 因人而异
03:36
persuasion劝说 architectures架构
can be built内置 at the scale规模 of billions数十亿
62
204240
4320
03:41
and they can target目标, infer推断, understand理解
63
209840
3856
它们可以理解并推断个体用户的喜好
然后被部署在用户周围
03:45
and be deployed部署 at individuals个人
64
213720
2896
一个接一个
03:48
one by one
65
216640
1216
通过对每个人弱点的了解
03:49
by figuring盘算 out your weaknesses弱点,
66
217880
2136
出现在每个人的私人手机屏幕上
03:52
and they can be sent发送
to everyone's大家的 phone电话 private私人的 screen屏幕,
67
220040
5616
而其他人却看不见
03:57
so it's not visible可见 to us.
68
225680
2256
03:59
And that's different不同.
69
227960
1256
这是(与物质世界)截然不同的地方
而这仅仅是人工智能的基本功能之一
04:01
And that's just one of the basic基本 things
that artificial人造 intelligence情报 can do.
70
229240
3576
再举个例子
04:04
Now, let's take an example.
71
232840
1336
假如你要销售飞往
拉斯维加斯的机票
04:06
Let's say you want to sell
plane平面 tickets门票 to Vegas拉斯维加斯. Right?
72
234200
2696
在过去 你也许需要一些
统计资料来确定销售对象
04:08
So in the old world世界, you could think
of some demographics人口统计学 to target目标
73
236920
3496
然后根据你的个人经验和判断
04:12
based基于 on experience经验
and what you can guess猜测.
74
240440
2520
你也许会把推广目标定为
04:15
You might威力 try to advertise广告 to, oh,
75
243560
2816
25岁到35岁的男性
04:18
men男人 between之间 the ages年龄 of 25 and 35,
76
246400
2496
或者是高信用卡额度人群
04:20
or people who have
a high limit限制 on their credit信用 card,
77
248920
3936
04:24
or retired退休 couples情侣. Right?
78
252880
1376
或者是退休夫妇 对吧
那就是你以前采用的方法
04:26
That's what you would do in the past过去.
79
254280
1816
但在大数据和人工智能面前
04:28
With big data数据 and machine learning学习,
80
256120
2896
一切都改变了
04:31
that's not how it works作品 anymore.
81
259040
1524
04:33
So to imagine想像 that,
82
261320
2176
请想象一下
你被Facebook掌握的所有信息
04:35
think of all the data数据
that FacebookFacebook的 has on you:
83
263520
3856
你的每一次状态更新
04:39
every一切 status状态 update更新 you ever typed类型,
84
267400
2536
04:41
every一切 Messenger信使 conversation会话,
85
269960
2016
每一条对话内容
所有的登陆地点
04:44
every一切 place地点 you logged记录 in from,
86
272000
1880
04:48
all your photographs照片
that you uploaded上传 there.
87
276400
3176
你上传的所有照片
还有你输入了一部分
后来又删掉的内容
04:51
If you start开始 typing打字 something
and change更改 your mind心神 and delete删除 it,
88
279600
3776
04:55
FacebookFacebook的 keeps保持 those
and analyzes分析 them, too.
89
283400
3200
Facebook也会保存下来进行分析
04:59
Increasingly日益, it tries尝试
to match比赛 you with your offline离线 data数据.
90
287160
3936
它将越来越多的数据
和你的离线生活匹配
05:03
It also purchases购买
a lot of data数据 from data数据 brokers经纪商.
91
291120
3176
还有从网络信息商贩那里购买信息
05:06
It could be everything
from your financial金融 records记录
92
294320
3416
从你的财务记录到
所有网页浏览记录
05:09
to a good chunk of your browsing浏览 history历史.
93
297760
2120
各类信息无所不包
05:12
Right? In the US,
such这样 data数据 is routinely常规 collected,
94
300360
5416
在美国 这种数据是经常被收集
被整理 然后被贩卖的
05:17
collated整理 and sold出售.
95
305800
1960
05:20
In Europe欧洲, they have tougher强硬 rules规则.
96
308320
2440
而在欧洲 这是被明令禁止的
05:23
So what happens发生 then is,
97
311680
2200
所以接下来会发生的是
电脑通过算法分析
所有收集到的数据
05:26
by churning翻腾 through通过 all that data数据,
these machine-learning机器学习 algorithms算法 --
98
314920
4016
这个算法之所以叫做学习算法
05:30
that's why they're called
learning学习 algorithms算法 --
99
318960
2896
因为它们能够学会分析所有之前买过
05:33
they learn学习 to understand理解
the characteristics特点 of people
100
321880
4096
05:38
who purchased购买 tickets门票 to Vegas拉斯维加斯 before.
101
326000
2520
去维加斯机票的人的性格特征
05:41
When they learn学习 this from existing现有 data数据,
102
329760
3536
而在学会分析已有数据的同时
它们也在学习如何将其
应用在新的人群中
05:45
they also learn学习
how to apply应用 this to new people.
103
333320
3816
05:49
So if they're presented呈现 with a new person,
104
337160
3056
如果有个新用户
05:52
they can classify分类 whether是否 that person
is likely容易 to buy购买 a ticket to Vegas拉斯维加斯 or not.
105
340240
4640
它们可以迅速判断这个人
会不会买去维加斯的机票
05:57
Fine. You're thinking思维,
an offer提供 to buy购买 tickets门票 to Vegas拉斯维加斯.
106
345720
5456
这倒还好 你也许会想
不就是一个卖机票的广告吗
我不理它不就行了
06:03
I can ignore忽视 that.
107
351200
1456
06:04
But the problem问题 isn't that.
108
352680
2216
但问题不在这儿
06:06
The problem问题 is,
109
354920
1576
真正的问题是
我们已经无法真正理解
这些复杂的算法究竟是怎样工作的了
06:08
we no longer really understand理解
how these complex复杂 algorithms算法 work.
110
356520
4136
06:12
We don't understand理解
how they're doing this categorization分类.
111
360680
3456
我们不知道它们是
如何进行这种分类的
那是庞大的数字矩阵
成千上万的行与列
06:16
It's giant巨人 matrices矩阵,
thousands数千 of rows and columns,
112
364160
4416
06:20
maybe millions百万 of rows and columns,
113
368600
1960
也许是数百万的行与列
而没有程序员看管它们
06:23
and not the programmers程序员
114
371320
2640
没有任何人看管它们
06:26
and not anybody任何人 who looks容貌 at it,
115
374760
1680
即使你拥有所有的数据
06:29
even if you have all the data数据,
116
377440
1496
也完全了解算法是如何运行的
06:30
understands理解 anymore
how exactly究竟 it's operating操作
117
378960
4616
06:35
any more than you'd know
what I was thinking思维 right now
118
383600
3776
如果仅仅展示给你我的部分脑截面
你也不可能知道我的想法
06:39
if you were shown显示
a cross交叉 section部分 of my brain.
119
387400
3960
06:44
It's like we're not programming程序设计 anymore,
120
392360
2576
就好像这已经不是我们在编程了
06:46
we're growing生长 intelligence情报
that we don't truly understand理解.
121
394960
4400
我们是在创造一种
我们并不了解的智能
这种智能只有在
庞大的数据支持下才能工作
06:52
And these things only work
if there's an enormous巨大 amount of data数据,
122
400520
3976
06:56
so they also encourage鼓励
deep surveillance监控 on all of us
123
404520
5096
所以它们才致力于对我们
所有人进行强力监控
07:01
so that the machine learning学习
algorithms算法 can work.
124
409640
2336
以便学习算法的运行
这就是Facebook费尽心思
收集用户信息的原因
07:04
That's why FacebookFacebook的 wants
to collect搜集 all the data数据 it can about you.
125
412000
3176
这样算法才能更好的运行
07:07
The algorithms算法 work better.
126
415200
1576
07:08
So let's push that Vegas拉斯维加斯 example a bit.
127
416800
2696
我们再将那个维加斯的
例子强化一下
07:11
What if the system系统
that we do not understand理解
128
419520
3680
如果那个我们并不了解的系统
07:16
was picking选择 up that it's easier更轻松
to sell Vegas拉斯维加斯 tickets门票
129
424200
5136
发现即将进入躁狂
阶段的躁郁症患者
07:21
to people who are bipolar双极
and about to enter输入 the manic躁狂 phase.
130
429360
3760
更有可能买去维加斯的机票
07:25
Such这样 people tend趋向 to become成为
overspendersoverspenders, compulsive强迫 gamblers赌徒.
131
433640
4920
这是一群有挥霍金钱
以及好赌倾向的人
这些算法完全做得到 而你却对它们
是如何做到的毫不知情
07:31
They could do this, and you'd have no clue线索
that's what they were picking选择 up on.
132
439280
4456
07:35
I gave this example
to a bunch of computer电脑 scientists科学家们 once一旦
133
443760
3616
我曾把这个例子举给
一些计算机科学家
后来其中一个找到我
07:39
and afterwards之后, one of them came来了 up to me.
134
447400
2056
07:41
He was troubled苦恼 and he said,
"That's why I couldn't不能 publish发布 it."
135
449480
3520
他很烦恼 并对我说
这就是我没办法发表它的原因
07:45
I was like, "Couldn't不能 publish发布 what?"
136
453600
1715
我问 发表什么
07:47
He had tried试着 to see whether是否 you can indeed确实
figure数字 out the onset发病 of mania狂躁
137
455800
5856
他曾尝试在狂躁症病人
被确诊具有某些医疗症状前
07:53
from social社会 media媒体 posts帖子
before clinical临床 symptoms症状,
138
461680
3216
是否可以从他们的社交媒体上
发现病情的端倪
他做到了
07:56
and it had worked工作,
139
464920
1776
07:58
and it had worked工作 very well,
140
466720
2056
还做得相当不错
08:00
and he had no idea理念 how it worked工作
or what it was picking选择 up on.
141
468800
4880
但他不明白这是怎么做到的
或者说如何算出来的
08:06
Now, the problem问题 isn't solved解决了
if he doesn't publish发布 it,
142
474840
4416
那么如果他不发表论文
这个问题就得不到解决
因为早就有其他的一些公司
08:11
because there are already已经 companies公司
143
479280
1896
08:13
that are developing发展
this kind of technology技术,
144
481200
2536
在发展这样的科技了
很多类似的东西现在就摆在货架上
08:15
and a lot of the stuff东东
is just off the shelf.
145
483760
2800
这已经不是什么难事了
08:19
This is not very difficult anymore.
146
487240
2576
你是否曾经想在YouTube
上看一个视频
08:21
Do you ever go on YouTubeYouTube的
meaning含义 to watch one video视频
147
489840
3456
结果不知不觉看了27个
08:25
and an hour小时 later后来 you've watched看着 27?
148
493320
2360
你知不知道YouTube的
网页右边有一个边栏
08:28
You know how YouTubeYouTube的
has this column on the right
149
496760
2496
上面写着 即将播放
08:31
that says, "Up next下一个"
150
499280
2216
然后它往往会自动播放一些东西
08:33
and it autoplays自动播放 something?
151
501520
1816
这就是算法
08:35
It's an algorithm算法
152
503360
1216
算出你的兴趣点
08:36
picking选择 what it thinks
that you might威力 be interested有兴趣 in
153
504600
3616
甚至连你自己都没想到
08:40
and maybe not find on your own拥有.
154
508240
1536
08:41
It's not a human人的 editor编辑.
155
509800
1256
这可不是人工编辑
这就是算法的本职工作
08:43
It's what algorithms算法 do.
156
511080
1416
08:44
It picks精选 up on what you have watched看着
and what people like you have watched看着,
157
512520
4736
它选出你以及和你
相似的人看过的视频
08:49
and infers推断 that that must必须 be
what you're interested有兴趣 in,
158
517280
4216
然后推断出你的大致兴趣圈
推断出你想看什么
08:53
what you want more of,
159
521520
1255
然后就那些东西展示给你
08:54
and just shows节目 you more.
160
522799
1336
听起来像是一个无害且贴心的功能
08:56
It sounds声音 like a benign良性
and useful有用 feature特征,
161
524159
2201
但有时候它并不是
08:59
except when it isn't.
162
527280
1200
09:01
So in 2016, I attended出席 rallies集会
of then-candidate当时的总统候选人 Donald唐纳德 Trump王牌
163
529640
6960
2016年 我参加了当时的总统
候选人 唐纳德 特朗普 的系列集会
以学者的身份研究
这个支持他的运动
09:09
to study研究 as a scholar学者
the movement运动 supporting支持 him.
164
537840
3336
09:13
I study研究 social社会 movements运动,
so I was studying研究 it, too.
165
541200
3456
我当时正好在研究社会运动
09:16
And then I wanted to write something
about one of his rallies集会,
166
544680
3336
然后我想要写一些
有关其中一次集会的文章
09:20
so I watched看着 it a few少数 times on YouTubeYouTube的.
167
548040
1960
所以我在YouTube上看了几遍
这个集会的视频
然后YouTube就开始
不断给我推荐
09:23
YouTubeYouTube的 started开始 recommending建议 to me
168
551240
3096
并且自动播放一些
白人至上主义的视频
09:26
and autoplaying自动播放 to me
white白色 supremacist至上主义 videos视频
169
554360
4256
09:30
in increasing增加 order订购 of extremism极端主义.
170
558640
2656
这些视频一个比一个更极端
如果我看了一个
09:33
If I watched看着 one,
171
561320
1816
就会有另一个更加
极端的视频加入队列
09:35
it served提供服务 up one even more extreme极端
172
563160
2976
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
并自动播放
09:40
If you watch Hillary希拉里 Clinton克林顿
or Bernie伯尼 Sanders桑德斯 content内容,
174
568320
4536
如果你看有关 希拉里 克林顿
或者 伯尼 桑德斯 的内容
YouTube就会开始推荐并
自动播放左翼阴谋内容
09:44
YouTubeYouTube的 recommends建议
and autoplays自动播放 conspiracy阴谋 left,
175
572880
4696
09:49
and it goes downhill下坡 from there.
176
577600
1760
并且愈演愈烈
09:52
Well, you might威力 be thinking思维,
this is politics政治, but it's not.
177
580480
3056
你也许觉得这和政治有关
但事实上并不是这样
09:55
This isn't about politics政治.
178
583560
1256
这只不过是算法在
学习人类行为而已
09:56
This is just the algorithm算法
figuring盘算 out human人的 behavior行为.
179
584840
3096
我曾在YouTube上观看过
一个有关素食主义的视频
09:59
I once一旦 watched看着 a video视频
about vegetarianism素食主义 on YouTubeYouTube的
180
587960
4776
然后YouTube就推送了
纯素主义的视频
10:04
and YouTubeYouTube的 recommended推荐的
and autoplayedautoplayed a video视频 about being存在 vegan素食主义者.
181
592760
4936
10:09
It's like you're never
hardcore铁杆 enough足够 for YouTubeYouTube的.
182
597720
3016
在YouTube上你就
好像永远都不够决绝
10:12
(Laughter笑声)
183
600760
1576
(笑声)
10:14
So what's going on?
184
602360
1560
这到底是怎么回事儿
现在YouTube有其专有的算法
10:16
Now, YouTube'sYouTube的 algorithm算法 is proprietary所有权,
185
604520
3536
但我认为事情是这样的
10:20
but here's这里的 what I think is going on.
186
608080
2360
10:23
The algorithm算法 has figured想通 out
187
611360
2096
这算法已经分析出了
10:25
that if you can entice诱惑 people
188
613480
3696
如果能展示出更加核心的内容
以此来诱惑网站用户
10:29
into thinking思维 that you can
show显示 them something more hardcore铁杆,
189
617200
3736
10:32
they're more likely容易 to stay on the site现场
190
620960
2416
那么人们就更有可能沉浸在网页里
一个接一个的观看推荐的视频
10:35
watching观看 video视频 after video视频
going down that rabbit兔子 hole
191
623400
4416
10:39
while Google谷歌 serves供应 them ads广告.
192
627840
1680
同时Google给它们投放广告
目前没有人在意网络的道德规范
10:43
Now, with nobody没有人 minding自扫门前雪
the ethics伦理 of the store商店,
193
631760
3120
这些网站可以对用户进行划分
10:47
these sites网站 can profile轮廓 people
194
635720
4240
10:53
who are Jew haters仇敌,
195
641680
1920
哪些人仇视犹太人
10:56
who think that Jews犹太人 are parasites寄生虫
196
644360
2480
哪些人视犹太人为寄生虫
11:00
and who have such这样 explicit明确的
anti-Semitic反犹太人的 content内容,
197
648320
4920
以及说过明显反犹太言论的人
11:06
and let you target目标 them with ads广告.
198
654080
2000
然后让你面向这些
目标人群投放广告
11:09
They can also mobilize动员 algorithms算法
199
657200
3536
他们也可以利用算法
来找到和你类似的观众
11:12
to find for you look-alike看起来像 audiences观众,
200
660760
3136
11:15
people who do not have such这样 explicit明确的
anti-Semitic反犹太人的 content内容 on their profile轮廓
201
663920
5576
那些个人账号中虽然没有过
明显的反犹太人言论
但却被算法检测出
可能被这种言论影响的人
11:21
but who the algorithm算法 detects检测
may可能 be susceptible易感 to such这样 messages消息,
202
669520
6176
然后也面向他们投放同样的广告
11:27
and lets让我们 you target目标 them with ads广告, too.
203
675720
1920
11:30
Now, this may可能 sound声音
like an implausible难以置信 example,
204
678680
2736
这听起来难以置信
11:33
but this is real真实.
205
681440
1320
但确有其事
ProPublica在这方面调查过
11:35
ProPublicaProPublica investigated调查 this
206
683480
2136
11:37
and found发现 that you can indeed确实
do this on FacebookFacebook的,
207
685640
3616
发现这的确可以在Facebook上实现
11:41
and FacebookFacebook的 helpfully有益
offered提供 up suggestions建议
208
689280
2416
Facebook还积极的就
有关如何将算法的受众
再度扩大提出了建议
11:43
on how to broaden扩大 that audience听众.
209
691720
1600
11:46
BuzzFeedBuzzFeed tried试着 it for Google谷歌,
and very quickly很快 they found发现,
210
694720
3016
Buzzfeed曾在Google上
进行尝试 并很快发现
没错 这也可在Google实现
11:49
yep是的, you can do it on Google谷歌, too.
211
697760
1736
11:51
And it wasn't even expensive昂贵.
212
699520
1696
而这甚至花不了多少钱
11:53
The ProPublicaProPublica reporter记者
spent花费 about 30 dollars美元
213
701240
4416
ProPublica只花了大概30美元
11:57
to target目标 this category类别.
214
705680
2240
就找出了目标人群
12:02
So last year, Donald唐纳德 Trump's特朗普的
social社会 media媒体 manager经理 disclosed披露
215
710600
5296
那么去年 特朗普的
社交媒体经理披露道
12:07
that they were using运用 FacebookFacebook的 dark黑暗 posts帖子
to demobilize复员 people,
216
715920
5336
他们使用Facebook的
隐藏发帖来动员大众退出
12:13
not to persuade说服 them,
217
721280
1376
不是劝告
12:14
but to convince说服 them not to vote投票 at all.
218
722680
2800
而是说服他们根本就不要投票
为了做到这一点 他们有
针对性的找到目标
12:18
And to do that,
they targeted针对 specifically特别,
219
726520
3576
比如 在费城这种关键城市里
居住的非裔美国人
12:22
for example, African-American非裔美国人 men男人
in key cities城市 like Philadelphia费城,
220
730120
3896
12:26
and I'm going to read
exactly究竟 what he said.
221
734040
2456
请注意接下来我要复述的
都是他们的原话
12:28
I'm quoting引用.
222
736520
1216
他们使用 以下是引用
由竞选者控制的
12:29
They were using运用 "nonpublic非公开 posts帖子
223
737760
3016
非面向公众的贴文发帖
12:32
whose谁的 viewership收视率 the campaign运动 controls控制
224
740800
2176
12:35
so that only the people
we want to see it see it.
225
743000
3776
这样就只有我们选定的人
可以看到其内容
我们估算了一下
12:38
We modeled仿照 this.
226
746800
1216
这会极大程度的做到让这些人退出
12:40
It will dramatically显着 affect影响 her ability能力
to turn these people out."
227
748040
4720
以上我引述的隐藏贴文说了些什么呢
12:45
What's in those dark黑暗 posts帖子?
228
753720
2280
我们无从知晓
12:48
We have no idea理念.
229
756480
1656
12:50
FacebookFacebook的 won't惯于 tell us.
230
758160
1200
Facebook不会告诉我们
12:52
So FacebookFacebook的 also algorithmically算法
arranges整理 the posts帖子
231
760480
4376
所以Facebook也利用
算法管理贴文
不管是你朋友的发帖
还是你的跟帖
12:56
that your friends朋友 put on FacebookFacebook的,
or the pages网页 you follow跟随.
232
764880
3736
它不会把东西按时间顺序展现给你
13:00
It doesn't show显示 you
everything chronologically按时间顺序.
233
768640
2216
而是按算法计算的顺序展现给你
13:02
It puts看跌期权 the order订购 in the way
that the algorithm算法 thinks will entice诱惑 you
234
770880
4816
以使你更长时间停留在页面上
13:07
to stay on the site现场 longer.
235
775720
1840
13:11
Now, so this has a lot of consequences后果.
236
779040
3376
而这一切都是有后果的
你也许会觉得有人在
Facebook上对你不理不睬
13:14
You may可能 be thinking思维
somebody is snubbing冷落 you on FacebookFacebook的.
237
782440
3800
这是因为算法可能根本就
没有给他们展示你的发帖
13:18
The algorithm算法 may可能 never
be showing展示 your post岗位 to them.
238
786800
3256
13:22
The algorithm算法 is prioritizing优先
some of them and burying掩埋 the others其他.
239
790080
5960
算法会优先展示一些贴文
而把另一些埋没
实验显示
13:29
Experiments实验 show显示
240
797320
1296
算法决定展示给你的东西
会影响到你的情绪
13:30
that what the algorithm算法 picks精选 to show显示 you
can affect影响 your emotions情绪.
241
798640
4520
13:36
But that's not all.
242
804600
1200
还不止这样
13:38
It also affects影响 political政治 behavior行为.
243
806280
2360
它也会影响到政治行为
13:41
So in 2010, in the midterm期中考试 elections选举,
244
809360
4656
在2010年的中期选举中
Facebook对美国6100万人
做了一个实验
13:46
FacebookFacebook的 did an experiment实验
on 61 million百万 people in the US
245
814040
5896
这是在事后被披露的
13:51
that was disclosed披露 after the fact事实.
246
819960
1896
当时有些人收到了
今天是选举日 的贴文
13:53
So some people were shown显示,
"Today今天 is election选举 day,"
247
821880
3416
简单的版本
13:57
the simpler简单 one,
248
825320
1376
13:58
and some people were shown显示
the one with that tiny tweak
249
826720
3896
而有一些人则收到了
微调过的贴文
14:02
with those little thumbnails缩略图
250
830640
2096
上面有一些小的缩略图
显示的是你的
哪些好友 已投票
14:04
of your friends朋友 who clicked点击 on "I voted."
251
832760
2840
这小小的微调
14:09
This simple简单 tweak.
252
837000
1400
14:11
OK? So the pictures图片 were the only change更改,
253
839520
4296
看到了吧 改变仅仅是
添加了缩略图而已
14:15
and that post岗位 shown显示 just once一旦
254
843840
3256
并且那些贴文仅出现一次
后来的调查结果显示
14:19
turned转身 out an additional额外 340,000 voters选民
255
847120
6056
14:25
in that election选举,
256
853200
1696
在那次选举中
根据选民登记册的确认
14:26
according根据 to this research研究
257
854920
1696
14:28
as confirmed确认 by the voter选民 rolls劳斯莱斯.
258
856640
2520
多出了34万的投票者
仅仅是意外吗 并非如此
14:32
A fluke吸虫? No.
259
860920
1656
因为在2012年
他们再次进行了同样的实验
14:34
Because in 2012,
they repeated重复 the same相同 experiment实验.
260
862600
5360
而那一次
14:40
And that time,
261
868840
1736
类似贴文也只出现了一次
14:42
that civic公民 message信息 shown显示 just once一旦
262
870600
3296
最后多出了28万投票者
14:45
turned转身 out an additional额外 270,000 voters选民.
263
873920
4440
作为参考 2016年总统大选的
14:51
For reference参考, the 2016
US presidential总统 election选举
264
879160
5216
14:56
was decided决定 by about 100,000 votes.
265
884400
3520
最终结果是由大概
十万张选票决定的
Facebook还可以轻易
推断出你的政治倾向
15:01
Now, FacebookFacebook的 can also
very easily容易 infer推断 what your politics政治 are,
266
889360
4736
即使你从没有在网上披露过
15:06
even if you've never
disclosed披露 them on the site现场.
267
894120
2256
这可难不倒算法
15:08
Right? These algorithms算法
can do that quite相当 easily容易.
268
896400
2520
而如果一个拥有
这样强大能力的平台
15:11
What if a platform平台 with that kind of power功率
269
899960
3896
决定要让一个候选者胜利获选
15:15
decides决定 to turn out supporters支持者
of one candidate候选人 over the other?
270
903880
5040
15:21
How would we even know about it?
271
909680
2440
我们根本无法察觉
现在我们从一个无伤大雅的方面
也就是如影随形的
15:25
Now, we started开始 from someplace某个地方
seemingly似乎 innocuous无害的 --
272
913560
4136
网络广告
15:29
online线上 adds增加 following以下 us around --
273
917720
2216
转到了另一个方面
15:31
and we've我们已经 landed登陆 someplace某个地方 else其他.
274
919960
1840
作为一个普通大众和公民
15:35
As a public上市 and as citizens公民,
275
923480
2456
我们已经无法确认
自己看到的信息
15:37
we no longer know
if we're seeing眼看 the same相同 information信息
276
925960
3416
和别人看到的信息是否一样
15:41
or what anybody任何人 else其他 is seeing眼看,
277
929400
1480
而在没有一个共同的
基本信息的情况下
15:43
and without a common共同 basis基础 of information信息,
278
931680
2576
15:46
little by little,
279
934280
1616
逐渐的
公开辩论将变得不再可能
15:47
public上市 debate辩论 is becoming变得 impossible不可能,
280
935920
3216
15:51
and we're just at
the beginning开始 stages阶段 of this.
281
939160
2976
而我们已经开始走在这条路上了
这些算法可以轻易推断出
15:54
These algorithms算法 can quite相当 easily容易 infer推断
282
942160
3456
任何一个用户的种族 宗教信仰
15:57
things like your people's人们 ethnicity种族,
283
945640
3256
包括政治倾向 还有个人喜好
16:00
religious宗教 and political政治 views意见,
personality个性 traits性状,
284
948920
2336
16:03
intelligence情报, happiness幸福,
use of addictive上瘾 substances物质,
285
951280
3376
你的智力 心情 以及用药历史
父母是否离异 你的年龄和性别
16:06
parental父母 separation分割, age年龄 and genders性别,
286
954680
3136
16:09
just from FacebookFacebook的 likes喜欢.
287
957840
1960
这些都可以从你的
Facebook关注里推算出来
这些算法可以识别抗议人士
16:13
These algorithms算法 can identify鉴定 protesters抗议者
288
961440
4056
即使他们部分掩盖了面部特征
16:17
even if their faces面孔
are partially部分 concealed.
289
965520
2760
这些算法可以测出人们的性取向
16:21
These algorithms算法 may可能 be able能够
to detect检测 people's人们 sexual有性 orientation方向
290
969720
6616
只需要查看他们的约会账号头像
16:28
just from their dating约会 profile轮廓 pictures图片.
291
976360
3200
然而所有的一切都
只是概率性的推算
16:33
Now, these are probabilistic概率 guesses猜测,
292
981560
2616
16:36
so they're not going
to be 100 percent百分 right,
293
984200
2896
所以它们不会百分之百精确
这些算法有很多误报
16:39
but I don't see the powerful强大 resisting抵制
the temptation诱惑 to use these technologies技术
294
987120
4896
也必然会导致其他层次的种种问题
16:44
just because there are
some false positives阳性,
295
992040
2176
但我没有看到对想要使用这些
科技的有力反抗
16:46
which哪一个 will of course课程 create创建
a whole整个 other layer of problems问题.
296
994240
3256
16:49
Imagine想像 what a state can do
297
997520
2936
想象一下 拥有了海量的市民数据
16:52
with the immense巨大 amount of data数据
it has on its citizens公民.
298
1000480
3560
一个国家能做出什么
中国已经在使用
16:56
China中国 is already已经 using运用
face面对 detection发现 technology技术
299
1004680
4776
面部识别来抓捕犯人
17:01
to identify鉴定 and arrest逮捕 people.
300
1009480
2880
17:05
And here's这里的 the tragedy悲剧:
301
1013280
2136
然而不幸的是
我们正在建造一个
监控独裁性质的设施
17:07
we're building建造 this infrastructure基础设施
of surveillance监控 authoritarianism独裁主义
302
1015440
5536
目的仅是为了让人们点击广告
17:13
merely仅仅 to get people to click点击 on ads广告.
303
1021000
2960
而这和奥威尔笔下的独裁政府不同
17:17
And this won't惯于 be
Orwell's奥威尔 authoritarianism独裁主义.
304
1025240
2576
17:19
This isn't "1984."
305
1027839
1897
不是 1984 里的情景
17:21
Now, if authoritarianism独裁主义
is using运用 overt公开 fear恐惧 to terrorize威慑 us,
306
1029760
4576
现在如果独裁主义公开恐吓我们
我们会惧怕 但我们也会察觉
17:26
we'll all be scared害怕, but we'll know it,
307
1034359
2897
17:29
we'll hate讨厌 it and we'll resist it.
308
1037280
2200
我们会奋起抵抗并瓦解它
但如果掌权的人使用这种算法
17:32
But if the people in power功率
are using运用 these algorithms算法
309
1040880
4416
来安静的监视我们
17:37
to quietly悄悄 watch us,
310
1045319
3377
17:40
to judge法官 us and to nudge微调 us,
311
1048720
2080
来评判我们 煽动我们
来预测和识别出那些
会给政府制造麻烦的家伙
17:43
to predict预测 and identify鉴定
the troublemakers闹事 and the rebels叛军,
312
1051720
4176
并且大规模的布置说服性的架构
17:47
to deploy部署 persuasion劝说
architectures架构 at scale规模
313
1055920
3896
17:51
and to manipulate操作 individuals个人 one by one
314
1059840
4136
利用每个人自身的
17:56
using运用 their personal个人, individual个人
weaknesses弱点 and vulnerabilities漏洞,
315
1064000
5440
弱点和漏洞来把我们逐个击破
假如他们的做法受众面很广
18:02
and if they're doing it at scale规模
316
1070720
2200
就会给每个手机都推送不同的信息
18:06
through通过 our private私人的 screens屏幕
317
1074080
1736
18:07
so that we don't even know
318
1075840
1656
这样我们甚至都不会知道
我们周围的人看到的是什么
18:09
what our fellow同伴 citizens公民
and neighbors邻居 are seeing眼看,
319
1077520
2760
独裁主义会像蜘蛛网
一样把我们困住
18:13
that authoritarianism独裁主义
will envelop信封 us like a spider's蜘蛛 web卷筒纸
320
1081560
4816
18:18
and we may可能 not even know we're in it.
321
1086400
2480
而我们并不会意识到
自己已深陷其中
Facebook现在的市值
18:22
So Facebook'sFacebook的 market市场 capitalization大写
322
1090440
2936
已经接近了5000亿美元
18:25
is approaching接近 half a trillion dollars美元.
323
1093400
3296
只因为它作为一个说服架构
完美的运作着
18:28
It's because it works作品 great
as a persuasion劝说 architecture建筑.
324
1096720
3120
但不管你是要卖鞋子
18:33
But the structure结构体 of that architecture建筑
325
1101760
2816
还是要卖政治思想
18:36
is the same相同 whether是否 you're selling销售 shoes
326
1104600
3216
18:39
or whether是否 you're selling销售 politics政治.
327
1107840
2496
这个架构的结构都是固定的
18:42
The algorithms算法 do not know the difference区别.
328
1110360
3120
算法并不知道其中的差异
同样的算法也被使用在我们身上
18:46
The same相同 algorithms算法 set loose疏松 upon us
329
1114240
3296
它让我们更易受广告诱导
18:49
to make us more pliable易弯的 for ads广告
330
1117560
3176
也管控着我们的政治 个人
以及社会信息的流向
18:52
are also organizing组织 our political政治,
personal个人 and social社会 information信息 flows流动,
331
1120760
6736
18:59
and that's what's got to change更改.
332
1127520
1840
而那正是需要改变的部分
我还需要澄清一下
19:02
Now, don't get me wrong错误,
333
1130240
2296
我们使用数字平台
因为它们带给我们便利
19:04
we use digital数字 platforms平台
because they provide提供 us with great value.
334
1132560
3680
我和世界各地的朋友和家人
通过 Facebook 联系
19:09
I use FacebookFacebook的 to keep in touch触摸
with friends朋友 and family家庭 around the world世界.
335
1137120
3560
我也曾撰文谈过社交媒体
在社会运动中的重要地位
19:14
I've written书面 about how crucial关键
social社会 media媒体 is for social社会 movements运动.
336
1142000
5776
我也曾研究过如何使用这些技术
19:19
I have studied研究 how
these technologies技术 can be used
337
1147800
3016
19:22
to circumvent规避 censorship审查 around the world世界.
338
1150840
2480
来绕开世界范围内的审查制度
但并不是那些管理Facebook
或者Google的人
19:27
But it's not that the people who run,
you know, FacebookFacebook的 or Google谷歌
339
1155280
6416
在意图不轨的尝试
19:33
are maliciously恶意 and deliberately故意 trying
340
1161720
2696
19:36
to make the country国家
or the world世界 more polarized偏振
341
1164440
4456
如何使世界走向极端化
并且推广极端主义
19:40
and encourage鼓励 extremism极端主义.
342
1168920
1680
19:43
I read the many许多
well-intentioned用心良苦 statements声明
343
1171440
3976
我曾读到过很多由这些人写的
十分善意的言论
19:47
that these people put out.
344
1175440
3320
但重要的并不是
这些科技人员说的话
19:51
But it's not the intent意图 or the statements声明
people in technology技术 make that matter,
345
1179600
6056
而是他们正在建造的
架构体系和商业模式
19:57
it's the structures结构
and business商业 models楷模 they're building建造.
346
1185680
3560
那才是问题的关键所在
20:02
And that's the core核心 of the problem问题.
347
1190360
2096
要么Facebook是个
5000亿市值的弥天大谎
20:04
Either FacebookFacebook的 is a giant巨人 con
of half a trillion dollars美元
348
1192480
4720
20:10
and ads广告 don't work on the site现场,
349
1198200
1896
那些广告根本就不奏效
20:12
it doesn't work
as a persuasion劝说 architecture建筑,
350
1200120
2696
它并不是以一个
说服架构的模式成功运作
要么Facebook的影响力
就是令人担忧的
20:14
or its power功率 of influence影响
is of great concern关心.
351
1202840
4120
只有这两种可能
20:20
It's either one or the other.
352
1208560
1776
20:22
It's similar类似 for Google谷歌, too.
353
1210360
1600
Google也是一样
20:24
So what can we do?
354
1212880
2456
那么我们能做什么呢
我们必须改变现状
20:27
This needs需求 to change更改.
355
1215360
1936
现在我还无法给出
一个简单的方法
20:29
Now, I can't offer提供 a simple简单 recipe食谱,
356
1217320
2576
因为我们必须重新调整
20:31
because we need to restructure重组
357
1219920
2256
20:34
the whole整个 way our
digital数字 technology技术 operates操作.
358
1222200
3016
整个数字科技的运行结构
一切科技从发展到激励的方式
20:37
Everything from the way
technology技术 is developed发达
359
1225240
4096
不论是在经济 还是在其他领域
20:41
to the way the incentives奖励,
economic经济 and otherwise除此以外,
360
1229360
3856
都是建立在这种结构之上
20:45
are built内置 into the system系统.
361
1233240
2280
我们必须得面对并尝试解决
20:48
We have to face面对 and try to deal合同 with
362
1236480
3456
由专有算法制造出来的
透明度过低问题
20:51
the lack缺乏 of transparency透明度
created创建 by the proprietary所有权 algorithms算法,
363
1239960
4656
20:56
the structural结构 challenge挑战
of machine learning's学习的 opacity不透明度,
364
1244640
3816
还有由机器学习的
不透明带来的结构挑战
以及所有这些不加选择
收集到的我们的信息
21:00
all this indiscriminate data数据
that's being存在 collected about us.
365
1248480
3400
我们的任务艰巨
21:05
We have a big task任务 in front面前 of us.
366
1253000
2520
必须调整我们的科技
21:08
We have to mobilize动员 our technology技术,
367
1256160
2680
我们的创造力
21:11
our creativity创造力
368
1259760
1576
21:13
and yes, our politics政治
369
1261360
1880
以及我们的政治
这样我们才能够制造出
21:16
so that we can build建立
artificial人造 intelligence情报
370
1264240
2656
真正为人类服务的人工智能
21:18
that supports支持 us in our human人的 goals目标
371
1266920
3120
但这也会受到人类价值观的阻碍
21:22
but that is also constrained受限
by our human人的 values.
372
1270800
3920
我也明白这不会轻松
21:27
And I understand理解 this won't惯于 be easy简单.
373
1275600
2160
21:30
We might威力 not even easily容易 agree同意
on what those terms条款 mean.
374
1278360
3600
我们甚至都无法在这些
理论上达成一致
但如果我们每个人都认真对待
21:34
But if we take seriously认真地
375
1282920
2400
这些我们一直以来
都在依赖的操作系统
21:38
how these systems系统 that we
depend依靠 on for so much operate操作,
376
1286240
5976
我认为我们也
没有理由再拖延下去了
21:44
I don't see how we can postpone推迟
this conversation会话 anymore.
377
1292240
4120
21:49
These structures结构
378
1297200
2536
这些结构
在影响着我们的工作方式
21:51
are organizing组织 how we function功能
379
1299760
4096
21:55
and they're controlling控制
380
1303880
2296
它们同时也在控制
我们能做与不能做什么事情
21:58
what we can and we cannot不能 do.
381
1306200
2616
而许许多多的
这种以广告为生的平台
22:00
And many许多 of these ad-financed广告资助 platforms平台,
382
1308840
2456
22:03
they boast that they're free自由.
383
1311320
1576
他们夸下海口 对大众分文不取
22:04
In this context上下文, it means手段
that we are the product产品 that's being存在 sold出售.
384
1312920
4560
而事实上 我们却是他们销售的产品
22:10
We need a digital数字 economy经济
385
1318840
2736
我们需要一种数字经济
一种我们的数据以及我们专注的信息
22:13
where our data数据 and our attention注意
386
1321600
3496
不会如竞拍一样被售卖给
出价最高的独裁者和煽动者
22:17
is not for sale拍卖 to the highest-bidding最高投标
authoritarian独裁的 or demagogue煽动者.
387
1325120
5080
22:23
(Applause掌声)
388
1331160
3800
(掌声)
回到那句好莱坞名人说的话
22:30
So to go back to
that Hollywood好莱坞 paraphrase意译,
389
1338480
3256
我们的确想要
22:33
we do want the prodigious惊人 potential潜在
390
1341760
3736
由人工智能与数字科技发展
带来的惊人潜力
22:37
of artificial人造 intelligence情报
and digital数字 technology技术 to blossom开花,
391
1345520
3200
但与此同时 我们也要
做好面对惊人风险的准备
22:41
but for that, we must必须 face面对
this prodigious惊人 menace威胁,
392
1349400
4936
22:46
open-eyed惊讶 and now.
393
1354360
1936
睁大双眼 就在此时此刻
谢谢
22:48
Thank you.
394
1356320
1216
(掌声)
22:49
(Applause掌声)
395
1357560
4640
Translated by Ethan Ouyang
Reviewed by Phoebe Zhang

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee