ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

凱撒 · 伊達爾戈: 取代政治人物的大膽想法

Filmed:
2,044,328 views

對於我們那不健全的政治體制,凱撒 · 伊達爾戈有個很極端的建議:將它自動化!在這場煽情的演說中,他描述了一個大膽的想法,繞過政治人物,賦權給公民,讓他們創造個人化的人工智慧代表,來直接參與民主決策。這場演說要帶大家探索新的決策方式,拓展你的民主的了解。
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
只有我這樣嗎?
00:15
or are there other people here
1
3141
2332
還是這裡的其他人也都一樣,
00:17
that are a little bit
disappointed失望 with democracy民主?
2
5497
2344
對民主感到有一點失望?
00:20
(Applause掌聲)
3
8986
2336
(掌聲)
00:24
So let's look at a few少數 numbers數字.
4
12141
2071
咱們先來看看幾個數字,
00:26
If we look across橫過 the world世界,
5
14934
2173
如果從全球來看,
00:29
the median中位數 turnout結果發現
in presidential總統 elections選舉
6
17131
3892
總統大選的投票率中位數,
00:33
over the last 30 years年份
7
21047
1651
在過去三十年間,
00:34
has been just 67 percent百分.
8
22722
2622
只有 67%。
00:38
Now, if we go to Europe歐洲
9
26329
1973
如果我們去看歐洲,
00:40
and we look at people that participated參加
in EU歐洲聯盟 parliamentary議會 elections選舉,
10
28326
4428
去看參與歐洲議會大選的人,
00:44
the median中位數 turnout結果發現 in those elections選舉
11
32778
2071
那些選舉的投票率中位數
00:46
is just 42 percent百分.
12
34873
2104
只有 42%。
00:50
Now let's go to New York紐約,
13
38125
1669
咱們來看看紐約,
00:51
and let's see how many許多 people voted
in the last election選舉 for mayor市長.
14
39818
4681
看看上一次的市長選舉
有多少人投票。
00:56
We will find that only
24 percent百分 of people showed顯示 up to vote投票.
15
44523
3817
我們會發現,只有
24% 的人出席投票。
01:01
What that means手段 is that,
if "Friends" was still running賽跑,
16
49063
3095
這就意味著,如果電視
還在演《六人行》,
01:04
Joey喬伊 and maybe Phoebe菲比
would have shown顯示 up to vote投票.
17
52182
3348
只有喬伊,也許加上菲比,
會現身投票。
01:07
(Laughter笑聲)
18
55554
1290
(笑聲)
01:09
And you cannot不能 blame them
because people are tired of politicians政治家.
19
57434
4426
你無法怪他們,因為大家
都對政治人物厭倦了。
01:13
And people are tired of other people
using運用 the data數據 that they have generated產生
20
61884
3887
大家都厭倦了其他人用
他們產生出來的資料,
01:17
to communicate通信 with
their friends朋友 and family家庭,
21
65795
2198
來和他們的朋友及家人溝通,
把他們變成政治宣傳活動的目標。
01:20
to target目標 political政治 propaganda宣傳 at them.
22
68017
2094
01:22
But the thing about this
is that this is not new.
23
70519
2728
但,重點是,這現象並不是新的。
01:25
Nowadays如今, people use likes喜歡
to target目標 propaganda宣傳 at you
24
73271
3225
現今,大家選擇宣傳活動的
目標時,先看的是「按讚」,
01:28
before they use your zip壓縮 code
or your gender性別 or your age年齡,
25
76520
3373
而不是你的郵遞區號、
你的性別,或你的年齡,
01:31
because the idea理念 of targeting針對 people
with propaganda宣傳 for political政治 purposes目的
26
79917
3570
因為,為了政治目的而將人們
變成宣傳活動目標的這個想法,
01:35
is as old as politics政治.
27
83511
1592
其歷史和政治一樣久遠。
01:37
And the reason原因 why that idea理念 is there
28
85530
2278
會有這種想法的原因
01:39
is because democracy民主
has a basic基本 vulnerability漏洞.
29
87832
3472
是因為民主有一項基本的弱點。
01:43
This is the idea理念 of a representative代表.
30
91710
1932
這個弱點就是「代表」的觀念。
01:46
In principle原理, democracy民主 is the ability能力
of people to exert發揮 power功率.
31
94049
3944
原則上,民主是人們
行使權力的能力。
01:50
But in practice實踐, we have to delegate代表
that power功率 to a representative代表
32
98017
3818
但實際上,我們是把權力
委派給一位代表,
01:53
that can exert發揮 that power功率 for us.
33
101859
2255
讓代表為我們行使權力。
01:56
That representative代表 is a bottleneck瓶頸,
34
104561
1825
那代表就是瓶頸,或是弱點所在。
01:58
or a weak spot.
35
106410
1297
01:59
It is the place地點 that you want to target目標
if you want to attack攻擊 democracy民主
36
107731
3949
如果你想要攻擊民主,
你就會針對那個地方,
02:03
because you can capture捕獲 democracy民主
by either capturing捕獲 that representative代表
37
111704
3489
因為若你要俘虜民主,
你可以俘虜代表,
02:07
or capturing捕獲 the way
that people choose選擇 it.
38
115217
2148
或者俘虜人們選出代表的方式。
02:10
So the big question is:
39
118065
1416
所以,關鍵的問題是:
歷史就到此為止了嗎?
02:11
Is this the end結束 of history歷史?
40
119505
1704
我們做到最好,就只有這樣嗎?
02:13
Is this the best最好 that we can do
41
121989
3103
02:17
or, actually其實, are there alternatives備擇方案?
42
125878
3067
或者,其實還有其他替代選擇?
02:22
Some people have been thinking思維
about alternatives備擇方案,
43
130130
2354
有些人一直在想有什麼替代選擇,
02:24
and one of the ideas思路 that is out there
is the idea理念 of direct直接 democracy民主.
44
132508
3679
他們想出來的其中一個點子
是「直接民主」的概念。
02:28
This is the idea理念 of bypassing通過傳遞
politicians政治家 completely全然
45
136790
2479
這個概念就是完全繞過政治人物,
02:31
and having people vote投票 directly on issues問題,
46
139293
2403
讓人民針對議題直接投票,
02:33
having people vote投票 directly on bills票據.
47
141720
2265
讓人民直接投票表決法案。
02:36
But this idea理念 is naive幼稚
48
144415
1336
但這個概念太天真,
02:37
because there's too many許多 things
that we would need to choose選擇.
49
145775
3171
因為我們有太多選擇要做了。
02:40
If you look at the 114th US Congress國會,
50
148970
2782
以第 114 屆美國國會為例,
02:43
you will have seen看到 that
the House of Representatives代表
51
151776
2487
你會發現,美國眾議院
02:46
considered考慮 more than 6,000 bills票據,
52
154287
2889
要考量超過六千個法案,
02:49
the Senate參議院 considered考慮
more than 3,000 bills票據
53
157200
2656
參議院要考量超過三千個法案,
02:51
and they approved批准 more than 300 laws法律.
54
159880
2808
他們核准了超過三百條法律。
02:54
Those would be many許多 decisions決定
55
162712
1579
每個人一個星期內
就要做這麼多的決策,
02:56
that each person would have to make a week
56
164315
2187
而且是他們幾乎毫無所知的主題。
02:58
on topics主題 that they know little about.
57
166526
2142
03:01
So there's a big cognitive認知
bandwidth帶寬 problem問題
58
169229
2281
這是一個很大的認知頻寬問題,
03:03
if we're going to try to think about
direct直接 democracy民主 as a viable可行 alternative替代.
59
171534
3992
若要把直接民主做為可行的替代選擇
就必須要考量這個問題。
03:08
So some people think about the idea理念
of liquid液體 democracy民主, or fluid流體 democracy民主,
60
176205
4435
所以,有些人想出一個辦法,
叫做液態民主,或液體民主,
03:12
which哪一個 is the idea理念 that you endorse擁護
your political政治 power功率 to someone有人,
61
180664
3776
也就是你可以把你的
政治權力授予某個人,
03:16
who can endorse擁護 it to someone有人 else其他,
62
184464
1700
他又可以再授予別人,
03:18
and, eventually終於, you create創建
a large follower信徒 network網絡
63
186188
2541
最終,會創造出一個
大型的追隨著網絡,
03:20
in which哪一個, at the end結束, there's a few少數 people
that are making製造 decisions決定
64
188753
3294
在這個網絡中,最終,
只會有幾個人負責決策,
03:24
on behalf代表 of all of their followers追隨者
and their followers追隨者.
65
192071
3143
他們代表他們的追隨者,
以及那些追隨者的追隨者。
03:28
But this idea理念 also doesn't solve解決
the problem問題 of the cognitive認知 bandwidth帶寬
66
196326
4129
但這個想法一樣無法解決
認知頻寬的問題,
03:32
and, to be honest誠實, it's also quite相當 similar類似
to the idea理念 of having a representative代表.
67
200479
3877
老實說,這和採用代表的
想法沒什麼兩樣。
03:36
So what I'm going to do today今天 is
I'm going to be a little bit provocative挑釁,
68
204795
3468
所以,我今天打算
要走比較挑撥的路線,
03:40
and I'm going to ask you, well:
69
208277
2300
我要問各位:
03:42
What if, instead代替 of trying
to bypass旁路 politicians政治家,
70
210601
6562
如果,
不要繞過政治人物,
03:49
we tried試著 to automate自動化 them?
71
217187
2200
而是試著將他們自動化,會如何?
03:57
The idea理念 of automation自動化 is not new.
72
225871
2926
自動化的想法並不新奇。
04:00
It was started開始 more than 300 years年份 ago,
73
228821
2080
至少三百年前就已經有了,
04:02
when French法國 weavers織工 decided決定
to automate自動化 the loom織布機.
74
230925
3068
那時法國的織布工決定
要將織布機給自動化。
04:06
The winner優勝者 of that industrial產業 war戰爭
was Joseph-Marie約瑟夫-瑪麗 Jacquard提花.
75
234820
4360
那次工業戰爭的贏家是
約瑟夫 · 馬瑞 · 加卡爾。
04:11
He was a French法國 weaver韋弗 and merchant商人
76
239204
1751
他是法國織布工和商人,
04:12
that married已婚 the loom織布機
with the steam蒸汽 engine發動機
77
240979
2440
將織布機和蒸汽引擎結合,
04:15
to create創建 autonomous自主性 looms織機.
78
243443
2190
創造出了自動織布機。
04:17
And in those autonomous自主性 looms織機,
he gained獲得 control控制.
79
245657
2753
他靠著那些自動織布機
取得了控制權。
04:20
He could now make fabrics面料 that were
more complex複雜 and more sophisticated複雜的
80
248434
3885
他能製造出更複雜、
更精密的布料,
04:24
than the ones那些 they
were able能夠 to do by hand.
81
252343
2128
那是人工無法做出來的。
04:27
But also, by winning勝利 that industrial產業 war戰爭,
82
255193
2632
此外,打贏了那場工業戰爭,
04:29
he laid鋪設 out what has become成為
the blueprint藍圖 of automation自動化.
83
257849
3524
他也因此為自動化繪製出了藍圖。
04:34
The way that we automate自動化 things
for the last 300 years年份
84
262135
2870
過去三百年間我們
將事物自動化的方式
04:37
has always been the same相同:
85
265029
1382
都一直沒變過:
04:39
we first identify鑑定 a need,
86
267006
2509
首先,我們找出需求,
04:41
then we create創建 a tool工具
to satisfy滿足 that need,
87
269539
3184
接著,我們創造出一樣工具
來滿足那個需求,
04:44
like the loom織布機, in this case案件,
88
272747
2040
在這個例子中,工具就是織布機,
04:46
and then we study研究 how people use that tool工具
89
274811
2391
接著,我們研究人們
怎麼使用那工具,
04:49
to automate自動化 that user用戶.
90
277226
1485
來將使用者自動化。
04:51
That's how we came來了
from the mechanical機械 loom織布機
91
279242
3061
我們就是這樣子從機械織布機
04:54
to the autonomous自主性 loom織布機,
92
282327
1896
走到自動織布機,
04:56
and that took us a thousand years年份.
93
284247
2120
那過程花了我們一千年。
04:58
Now, it's taken採取 us only a hundred years年份
94
286391
2071
後來,我們只花了一百年,
05:00
to use the same相同 script腳本
to automate自動化 the car汽車.
95
288486
3211
就照著同樣的腳本將汽車自動化。
05:05
But the thing is that, this time around,
96
293286
2452
但,重點是,這一次,
05:07
automation自動化 is kind of for real真實.
97
295762
2129
自動化是玩真的了。
05:09
This is a video視頻 that a colleague同事 of mine
from Toshiba東芝 shared共享 with me
98
297915
3321
這支影片是我同事分享
給我的,他在東芝工作,
05:13
that shows節目 the factory
that manufactures製成品 solid固體 state drives驅動器.
99
301260
3259
影片展示出的是
製造固態硬碟的工廠。
05:16
The entire整個 factory is a robot機器人.
100
304543
2018
整個工廠都是機器人。
05:18
There are no humans人類 in that factory.
101
306585
1925
工廠中沒有人類。
05:21
And the robots機器人 are soon不久
to leave離開 the factories工廠
102
309033
2221
機器人很快就會踏出工廠,
05:23
and become成為 part部分 of our world世界,
103
311278
2022
成為我們世界的一部分,
05:25
become成為 part部分 of our workforce勞動力.
104
313324
1835
成為我們勞動力的一部分。
05:27
So what I do in my day job工作
105
315183
1773
我的正職
05:28
is actually其實 create創建 tools工具 that integrate整合
data數據 for entire整個 countries國家
106
316980
3992
其實是在創造工具,
來將整個國家的資料整合,
05:32
so that we can ultimately最終 have
the foundations基金會 that we need
107
320996
3466
這麼一來,最終我們就能夠有
我們所需要的基礎,
05:36
for a future未來 in which哪一個 we need
to also manage管理 those machines.
108
324486
3687
讓我們在未來
也可以管理那些機器。
05:41
But today今天, I'm not here
to talk to you about these tools工具
109
329195
2906
但,今天,我來這裡要談的不是
這些整合全國資料的工具。
05:44
that integrate整合 data數據 for countries國家.
110
332125
1824
05:46
But I'm here to talk to you
about another另一個 idea理念
111
334463
2622
我來跟各位談的是另一個想法,
05:49
that might威力 help us think about how to use
artificial人造 intelligence情報 in democracy民主.
112
337109
4865
這個想法可能可以協助我們思考
如何將人工智慧用在民主上。
05:53
Because the tools工具 that I build建立
are designed設計 for executive行政人員 decisions決定.
113
341998
4733
因為我所建造的工具
是用來做重大決策的。
05:58
These are decisions決定 that can be cast
in some sort分類 of term術語 of objectivity客觀性 --
114
346755
3842
這些決策是可以
客觀做出的決策——
06:02
public上市 investment投資 decisions決定.
115
350621
1745
公共投資決策。
06:04
But there are decisions決定
that are legislative立法,
116
352885
2631
但,有些決策和立法相關,
06:07
and these decisions決定 that are legislative立法
require要求 communication通訊 among其中 people
117
355540
3787
這些立法相關決策會需要大家
針對不同的觀點進行溝通,
06:11
that have different不同 points of view視圖,
118
359351
1700
06:13
require要求 participation參與, require要求 debate辯論,
119
361075
2613
需要參與,需要辯論,
06:15
require要求 deliberation審議.
120
363712
1478
需要商議。
06:18
And for a long time,
we have thought that, well,
121
366241
2804
長期以來,我們都以為,
06:21
what we need to improve提高 democracy民主
is actually其實 more communication通訊.
122
369069
3460
若要改善民主,
我們需要的是更多的溝通。
06:24
So all of the technologies技術 that we have
advanced高級 in the context上下文 of democracy民主,
123
372553
3709
所以,我們為了民主
所發展出的所有技術,
06:28
whether是否 they are newspapers報紙
or whether是否 it is social社會 media媒體,
124
376286
2778
不論是報紙,不論是社交媒體,
都試著提供我們更多的溝通。
06:31
have tried試著 to provide提供 us
with more communication通訊.
125
379088
2382
06:34
But we've我們已經 been down that rabbit兔子 hole,
126
382103
1822
但我們已經身陷困惑中了,
06:35
and we know that's not
what's going to solve解決 the problem問題.
127
383949
2748
我們知道這並不能解決問題。
因為這並不是一個溝通的問題,
而是認知頻寬的問題。
06:38
Because it's not a communication通訊 problem問題,
128
386721
1996
06:40
it's a cognitive認知 bandwidth帶寬 problem問題.
129
388741
1748
06:42
So if the problem問題 is one
of cognitive認知 bandwidth帶寬,
130
390513
2366
如果這個問題是認知頻寬的問題,
06:44
well, adding加入 more communication通訊 to people
131
392903
2587
讓大家有更多的溝通
06:47
is not going to be
what's going to solve解決 it.
132
395514
2744
並不會是解決方案。
06:50
What we are going to need instead代替
is to have other technologies技術
133
398282
3113
反而,我們需要的是其他的技術,
06:53
that help us deal合同 with
some of the communication通訊
134
401419
3046
來協助我們處理一些
讓我們超負荷的溝通。
06:56
that we are overloaded超載 with.
135
404489
2242
06:58
Think of, like, a little avatar頭像,
136
406755
1699
把它想像成是虛擬角色或軟體代理,
07:00
a software軟件 agent代理人,
137
408478
1339
07:01
a digital數字 Jiminy吉米尼 Cricket蟋蟀 --
138
409841
1878
數位化的吉明尼蟋蟀——
(註:《木偶奇遇記》裡的角色)
07:03
(Laughter笑聲)
139
411743
1238
(笑聲)
07:05
that basically基本上 is able能夠
to answer回答 things on your behalf代表.
140
413005
4012
基本上,它能夠代表你來做回應。
07:09
And if we had that technology技術,
141
417759
1787
如果我們有那種技術,
07:11
we would be able能夠 to offload卸載
some of the communication通訊
142
419570
2478
我們就能夠卸下一些溝通負擔,
07:14
and help, maybe, make better decisions決定
or decisions決定 at a larger scale規模.
143
422072
4147
也許就能協助我們做更好的決策
或更大規模的決策。
07:18
And the thing is that the idea理念
of software軟件 agents代理 is also not new.
144
426860
3719
其實軟體代理的想法也不是新的。
07:22
We already已經 use them all the time.
145
430603
2109
我們已經常常在使用了。
07:25
We use software軟件 agents代理
146
433216
1521
我們用軟體代理
07:26
to choose選擇 the way that we're going
to drive駕駛 to a certain某些 location位置,
147
434761
3675
來選擇開車前往
某個地點時要走的路線,
07:31
the music音樂 that we're going to listen to
148
439070
2101
選擇我們要聽的音樂,
07:33
or to get suggestions建議
for the next下一個 books圖書 that we should read.
149
441758
3021
或取得建議,推薦我們
下一次要閱讀什麼書。
07:37
So there is an obvious明顯 idea理念
in the 21stST century世紀
150
445994
2574
所以,在二十一世紀,
有一個很明顯的想法,
07:40
that was as obvious明顯 as the idea理念
151
448592
2643
和加卡爾那時候
將蒸汽引擎與織布機
07:43
of putting together一起 a steam蒸汽 engine發動機
with a loom織布機 at the time of Jacquard提花.
152
451259
5581
結合在一起的想法同樣明顯。
07:49
And that idea理念 is combining結合
direct直接 democracy民主 with software軟件 agents代理.
153
457538
4456
那個想法就是將直接民主
與軟體代理結合起來。
07:54
Imagine想像, for a second第二, a world世界
154
462849
2121
花點時間想像一下這樣的世界:
07:56
in which哪一個, instead代替 of having
a representative代表 that represents代表 you
155
464994
3166
在這個世界,並不是
由一個代表人來代表你
08:00
and millions百萬 of other people,
156
468184
1574
以及其他數百萬人,
08:01
you can have a representative代表
that represents代表 only you,
157
469782
3036
你可以有單獨屬於你自己的代表,
08:05
with your nuanced細緻入微 political政治 views意見 --
158
473504
2254
這個代表保有你細微的政治觀點——
08:07
that weird奇怪的 combination組合
of libertarian自由主義者 and liberal自由主義的
159
475782
3344
古典自由派和自由派的奇特組合,
08:11
and maybe a little bit
conservative保守 on some issues問題
160
479150
2392
也許在某些議題上有一點點保守,
在其他議題又很激進。
08:13
and maybe very progressive進步 on others其他.
161
481566
2108
08:15
Politicians政治家 nowadays如今 are packages,
and they're full充分 of compromises妥協.
162
483698
3267
現今的政治人物都是套裝的,
且他們充滿了妥協。
08:18
But you might威力 have someone有人
that can represent代表 only you,
163
486989
3634
但你可以有一個只代表你的人,
只要你願意接受代表人
不一定要是人類。
08:22
if you are willing願意 to give up the idea理念
164
490647
1852
08:24
that that representative代表 is a human人的.
165
492523
2249
08:27
If that representative代表
is a software軟件 agent代理人,
166
495229
2082
如果那個代表人
是個軟體代理程式,
08:29
we could have a senate參議院 that has
as many許多 senators參議員 as we have citizens公民.
167
497335
4170
我們的參議院中的參議員數目
就可以跟公民數目一樣多。
08:33
And those senators參議員 are going to be able能夠
to read every一切 bill法案
168
501529
2858
那些參議員還能夠
讀過所有的法案,
08:36
and they're going to be able能夠
to vote投票 on each one of them.
169
504411
2747
且他們能夠針對
每一個法案來投票。
08:39
So there's an obvious明顯 idea理念
that maybe we want to consider考慮.
170
507822
2956
我們也許可以考慮
這個明顯的想法。
08:42
But I understand理解 that in this day and age年齡,
171
510802
2422
但我了解,在現今這個時代,
08:45
this idea理念 might威力 be quite相當 scary害怕.
172
513248
1889
這個想法可能會很嚇人。
08:48
In fact事實, thinking思維 of a robot機器人
coming未來 from the future未來
173
516391
3440
事實上,想想看,
一個來自未來的機器人,
08:51
to help us run our governments政府
174
519855
1673
來協助我們的政府運作,
08:53
sounds聲音 terrifying可怕的.
175
521552
1631
聽起來很嚇人。
08:56
But we've我們已經 been there before.
176
524223
1651
但以前就發生過了。
08:57
(Laughter笑聲)
177
525898
1273
(笑聲)
08:59
And actually其實 he was quite相當 a nice不錯 guy.
178
527195
2495
其實他人挺好的。
09:03
So what would the Jacquard提花 loom織布機
version of this idea理念 look like?
179
531677
6434
所以,
這想法的加卡爾織布機版本
會是什麼模樣?
09:10
It would be a very simple簡單 system系統.
180
538135
1901
它會是個很簡單的系統。
09:12
Imagine想像 a system系統 that you log日誌 in
and you create創建 your avatar頭像,
181
540060
3458
想像一個你可以登入
創造你的虛擬角色的系統,
09:15
and then you're going
to start開始 training訓練 your avatar頭像.
182
543542
2456
接著你就要開始
訓練你的虛擬角色。
你可以將你的閱讀習慣提供給它,
09:18
So you can provide提供 your avatar頭像
with your reading habits習慣,
183
546022
2682
09:20
or connect it to your social社會 media媒體,
184
548728
1861
或是將它與你的社交媒體連結,
09:22
or you can connect it to other data數據,
185
550613
2408
或將它和其他資料連結,
09:25
for example by taking服用
psychological心理 tests測試.
186
553045
2272
比如,去做心理測驗。
09:27
And the nice不錯 thing about this
is that there's no deception騙局.
187
555341
2968
這麼做的好處是,
不會有欺騙的狀況發生。
09:30
You are not providing提供 data數據 to communicate通信
with your friends朋友 and family家庭
188
558333
3339
你並不是提供資料
來和你的朋友及家人溝通,
09:33
that then gets得到 used in a political政治 system系統.
189
561696
3151
這些資料接著就會
被一個政治系統拿來使用。
09:36
You are providing提供 data數據 to a system系統
that is designed設計 to be used
190
564871
3704
你是把資料提供給一個設計來
為你做政治決策的系統。
09:40
to make political政治 decisions決定
on your behalf代表.
191
568599
2116
09:43
Then you take that data數據 and you choose選擇
a training訓練 algorithm算法,
192
571264
3980
接著,你提供資料
並選擇一個訓練演算法,
因為它是一個開放的市場,
不同的人可以上傳不同的演算法,
09:47
because it's an open打開 marketplace市井
193
575268
1563
09:48
in which哪一個 different不同 people
can submit提交 different不同 algorithms算法
194
576855
2786
09:51
to predict預測 how you're going to vote投票,
based基於 on the data數據 you have provided提供.
195
579665
4394
根據你提供的資料
來預測你會如何投票。
09:56
And the system系統 is open打開,
so nobody沒有人 controls控制 the algorithms算法;
196
584083
3455
這個系統是開放的,
沒有人能控制演算法;
09:59
there are algorithms算法
that become成為 more popular流行
197
587562
2112
有些演算法會變得比較熱門,
其他的比較冷門。
10:01
and others其他 that become成為 less popular流行.
198
589698
1723
最終,你能稽核這個系統。
10:03
Eventually終於, you can audit審計 the system系統.
199
591445
1807
你可以看到你的
虛擬角色怎麼運作。
10:05
You can see how your avatar頭像 is working加工.
200
593276
1881
如果你喜歡,就讓它自己運作。
10:07
If you like it,
you can leave離開 it on autopilot自動駕駛儀.
201
595181
2152
如果你想要有多一點控制權,
10:09
If you want to be
a little more controlling控制,
202
597357
2062
你也可以選擇讓它
在每次做決策之前先詢問過你,
10:11
you can actually其實 choose選擇 that they ask you
203
599443
1968
10:13
every一切 time they're going
to make a decision決定,
204
601435
2068
或是取這兩者之間的
任何部分控制。
10:15
or you can be anywhere隨地 in between之間.
205
603527
1635
我們之所以很少去
使用民主的原因之一,
10:17
One of the reasons原因
why we use democracy民主 so little
206
605186
2405
10:19
may可能 be because democracy民主
has a very bad user用戶 interface接口.
207
607615
3568
可能是因為民主的
使用者介面實在太爛了。
10:23
And if we improve提高 the user用戶
interface接口 of democracy民主,
208
611207
2483
如果我們改善民主的使用者介面,
10:25
we might威力 be able能夠 to use it more.
209
613714
2127
也許我們會更常使用它。
10:28
Of course課程, there's a lot of questions問題
that you might威力 have.
210
616452
3207
當然,你們可能有很多疑問。
10:32
Well, how do you train培養 these avatars替身?
211
620473
2161
你要如何訓練這些虛擬角色?
10:34
How do you keep the data數據 secure安全?
212
622658
1894
你要如何確保資料安全性?
10:36
How do you keep the systems系統
distributed分散式 and auditable可審核?
213
624576
3248
你要如何讓系統一直是
分散式且可稽核的?
10:39
How about my grandmother祖母,
who's誰是 80 years年份 old
214
627848
2062
我八十歲的祖母不知道
10:41
and doesn't know how to use the internet互聯網?
215
629946
1960
如何用網路,怎麼辦?
10:44
Trust相信 me, I've heard聽說 them all.
216
632262
2221
相信我,這些問題我都聽過。
10:46
So when you think about an idea理念 like this,
you have to beware謹防 of pessimists悲觀者
217
634507
4560
當你在思考這類的想法時
得要意識到有悲觀主義者,
10:51
because they are known已知 to have
a problem問題 for every一切 solution.
218
639091
4319
因為他們著名的特色就是
對每個解決方案都會有疑異。
10:55
(Laughter笑聲)
219
643434
1825
(笑聲)
10:57
So I want to invite邀請 you to think
about the bigger ideas思路.
220
645283
3040
我想要邀請各位
去思考更大的想法。
11:00
The questions問題 I just showed顯示 you
are little ideas思路
221
648347
3626
我剛剛向各位展示的
問題都是小想法。
11:03
because they are questions問題
about how this would not work.
222
651997
2902
因為它們是關於這個系統
如何無法成功的問題。
11:07
The big ideas思路 are ideas思路 of:
223
655502
1981
大想法指的是這些想法:
如果這個系統碰巧可行,
你還能拿它做什麼?
11:09
What else其他 can you do with this
224
657507
1807
11:11
if this would happen發生 to work?
225
659338
1889
11:13
And one of those ideas思路 is,
well, who writes the laws法律?
226
661774
3445
其中一個想法是,誰來訂法律?
11:17
In the beginning開始, we could have
the avatars替身 that we already已經 have,
227
665854
4223
一開始,我們會有那些
我們已經擁有的虛擬角色,
11:22
voting表決 on laws法律 that are written書面
by the senators參議員 or politicians政治家
228
670101
3497
針對參議員或政治人物
所訂的法律來投票,
11:25
that we already已經 have.
229
673622
1351
都是既有的法律。
11:27
But if this were to work,
230
675491
1714
但如果這個系統成功了,
11:29
you could write an algorithm算法
231
677902
2350
你可以寫一個演算法
11:32
that could try to write a law
232
680276
2150
來試著制訂出能得到
11:34
that would get a certain某些
percentage百分比 of approval贊同,
233
682450
2421
一定百分比的人同意的法律,
11:36
and you could reverse相反 the process處理.
234
684895
1782
你還可以把這個流程反轉。
11:38
Now, you might威力 think that this idea理念
is ludicrous滑稽的 and we should not do it,
235
686701
3512
你可能覺得這個想法很荒唐,
我們不該採納,
11:42
but you cannot不能 deny拒絕 that it's an idea理念
that is only possible可能
236
690237
2786
但無法否認,這個想法只有在
直接民主和軟體代理是種
可參與形式的世界裡
11:45
in a world世界 in which哪一個 direct直接 democracy民主
and software軟件 agents代理
237
693047
3020
11:48
are a viable可行 form形成 of participation參與.
238
696091
2656
才有可能實現。
11:52
So how do we start開始 the revolution革命?
239
700596
2753
所以,我們要如何發動這場革命?
11:56
We don't start開始 this revolution革命
with picket糾察 fences圍欄 or protests抗議
240
704238
3310
我們發動這場革命的方式
不是用示威或抗議,
11:59
or by demanding嚴格 our current當前 politicians政治家
to be changed into robots機器人.
241
707572
4190
也不要求用機器人
取代目前的政治人物。
12:03
That's not going to work.
242
711786
1549
那是行不通的。
12:05
This is much more simple簡單,
243
713359
1612
這更簡單許多,
12:06
much slower比較慢
244
714995
1159
更慢許多,更謙卑許多。
12:08
and much more humble謙卑.
245
716178
1414
12:09
We start開始 this revolution革命 by creating創建
simple簡單 systems系統 like this in grad畢業 schools學校,
246
717616
4349
我們發動這場革命的方式
是創造像這樣的簡單系統,
在研究所、圖書館、非營利機構裡。
12:13
in libraries圖書館, in nonprofits非營利組織.
247
721989
2094
12:16
And we try to figure數字 out
all of those little questions問題
248
724107
2654
我們試著設法解決
所有的小疑問、小問題,
12:18
and those little problems問題
249
726785
1221
12:20
that we're going to have to figure數字 out
to make this idea理念 something viable可行,
250
728030
3901
我們得要解決它們,
才能讓這個想法變成可行,
12:23
to make this idea理念 something
that we can trust相信.
251
731955
2351
才能讓這個想法變成
我們能信任的想法。
12:26
And as we create創建 those systems系統 that have
a hundred people, a thousand people,
252
734330
3635
當我們在創造那些系統,
讓一百人、一千人、
12:29
a hundred thousand people voting表決
in ways方法 that are not politically政治上 binding捆綁,
253
737989
3770
十萬人以沒有政治
牽連的方式投票時,
12:33
we're going to develop發展 trust相信 in this idea理念,
254
741783
2018
我們將會發展出
對這個想法的信任,
12:35
the world世界 is going to change更改,
255
743825
1519
世界將會改變,
12:37
and those that are as little
as my daughter女兒 is right now
256
745368
2875
現在和我女兒一樣小的那些人,
12:40
are going to grow增長 up.
257
748267
1337
將來會長大。
12:42
And by the time my daughter女兒 is my age年齡,
258
750580
2369
當我女兒到我這個年紀時,
12:44
maybe this idea理念, that I know
today今天 is very crazy,
259
752973
4436
也許,這個現今聽起來
很瘋狂的想法,
12:49
might威力 not be crazy to her
and to her friends朋友.
260
757433
4134
在她和她朋友看來可能並不瘋狂。
12:53
And at that point,
261
761956
1837
到那個時候,
12:55
we will be at the end結束 of our history歷史,
262
763817
2603
我們的歷史就走到了終點,
12:58
but they will be
at the beginning開始 of theirs他們的.
263
766444
2821
但那會是他們的歷史的開端。
13:01
Thank you.
264
769646
1183
謝謝。
13:02
(Applause掌聲)
265
770853
3042
(掌聲)
Translated by Lilian Chiu
Reviewed by Bruce Sung

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee