ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

セザー・ヒダルゴ: 政治家をあるものに置き換える大胆な構想

Filmed:
2,044,328 views

セザー・ヒダルゴが、今の壊れた政治システムを正すためのラディカルな提案をします――システムを自動化するというのです。この刺激的なトークで彼が紹介する大胆な構想は、政治家を介さずに、個々の市民に合わせて作られたAIの代表者を民主主義的決定に直接参加させるというものです。集団的意思決定の新たな方法について考え、民主主義の理解を深めてください。
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
これは私だけなのか
00:15
or are there other people here
1
3141
2332
それとも皆さんもでしょうかー
00:17
that are a little bitビット
disappointed失望した with democracy民主主義?
2
5497
2344
民主主義に
少々失望しているのは?
00:20
(Applause拍手)
3
8986
2336
(拍手)
00:24
So let's look at a few少数 numbers数字.
4
12141
2071
ちょっとデータを見てみましょう
00:26
If we look across横断する the world世界,
5
14934
2173
世界各地の
00:29
the median中央値 turnout消す
in presidential大統領 elections選挙
6
17131
3892
過去30年における
大統領選挙の平均投票率は
00:33
over the last 30 years
7
21047
1651
00:34
has been just 67 percentパーセント.
8
22722
2622
たったの67%です
ヨーロッパでは
00:38
Now, if we go to Europeヨーロッパ
9
26329
1973
00:40
and we look at people that participated参加した
in EUEU parliamentary議会 elections選挙,
10
28326
4428
欧州議会議員選挙に着目すると
00:44
the median中央値 turnout消す in those elections選挙
11
32778
2071
その平均投票率は
00:46
is just 42 percentパーセント.
12
34873
2104
たった42%です
00:50
Now let's go to New新しい Yorkヨーク,
13
38125
1669
ニューヨークで
00:51
and let's see how manyたくさんの people voted投票された
in the last election選挙 for mayor市長.
14
39818
4681
直近の市長選の投票者数を見ると
00:56
We will find that only
24 percentパーセント of people showed示した up to vote投票.
15
44523
3817
投票に行ったのは24%に過ぎません
01:01
What that means手段 is that,
if "Friends友達" was still runningランニング,
16
49063
3095
つまり『フレンズ』のメンバーで言うなら
投票に行くのは ジョーイと
せいぜいフィービーというところなのです
01:04
Joeyジョーイ and maybe Phoebeフィービー
would have shown示された up to vote投票.
17
52182
3348
01:07
(Laughter笑い)
18
55554
1290
(笑)
01:09
And you cannotできない blame責任 them
because people are tired疲れた of politicians政治家.
19
57434
4426
だからと言って責められません
皆 政治家には うんざりなんです
01:13
And people are tired疲れた of other people
usingを使用して the dataデータ that they have generated生成された
20
61884
3887
友だちや家族との やり取りの
データが他人に使われて
01:17
to communicate通信する with
their彼らの friends友達 and family家族,
21
65795
2198
政治宣伝の標的にされることにも
01:20
to targetターゲット political政治的 propaganda宣伝 at them.
22
68017
2094
うんざりしています
でも 実はこれは
今に始まったことではありません
01:22
But the thing about this
is that this is not new新しい.
23
70519
2728
今でこそ「いいね」した情報を元に
その人に合わせた政治宣伝がされていますが
01:25
Nowadays今日, people use likes好きな人
to targetターゲット propaganda宣伝 at you
24
73271
3225
01:28
before they use your zipジップ codeコード
or your gender性別 or your age年齢,
25
76520
3373
以前は郵便番号や性別 年齢で
同じことがされていました
01:31
because the ideaアイディア of targetingターゲティング people
with propaganda宣伝 for political政治的 purposes目的
26
79917
3570
対象に応じて政治宣伝するという発想は
政治と同じくらい古いものなのです
01:35
is as old古い as politics政治.
27
83511
1592
なぜそんな考えが
生まれるのかといえば
01:37
And the reason理由 why that ideaアイディア is there
28
85530
2278
01:39
is because democracy民主主義
has a basic基本的な vulnerability脆弱性.
29
87832
3472
民主主義には元々
脆弱性があるからです
これは代表制を図示したものです
01:43
This is the ideaアイディア of a representative代表.
30
91710
1932
01:46
In principle原理, democracy民主主義 is the ability能力
of people to exert発揮する powerパワー.
31
94049
3944
原則として 民主主義は
人民が権力を行使できるようにするものですが
01:50
But in practice練習, we have to delegateデリゲート
that powerパワー to a representative代表
32
98017
3818
実際には私たちは
自らの代表者にその権力を移譲し
01:53
that can exert発揮する that powerパワー for us.
33
101859
2255
代表者が私たちのために
権力を行使します
01:56
That representative代表 is a bottleneckボトルネック,
34
104561
1825
その代表者こそが
ボトルネックであり
01:58
or a weak弱い spotスポット.
35
106410
1297
弱点なのです
01:59
It is the place場所 that you want to targetターゲット
if you want to attack攻撃 democracy民主主義
36
107731
3949
民主主義を攻撃するなら
攻めどころは そこでしょう
民主主義を掌握するには
その代表者を掌握するか
02:03
because you can captureキャプチャー democracy民主主義
by eitherどちらか capturing捕獲 that representative代表
37
111704
3489
代表者の選任法を掌握するかの
いずれかなのです
02:07
or capturing捕獲 the way
that people choose選択する it.
38
115217
2148
ここで持ち上がる大きな疑問が
02:10
So the big大きい question質問 is:
39
118065
1416
02:11
Is this the end終わり of history歴史?
40
119505
1704
これは「歴史の終わり」なのか
ということです
これが最善のことなのか
02:13
Is this the bestベスト that we can do
41
121989
3103
02:17
or, actually実際に, are there alternatives代替案?
42
125878
3067
それとも実は これに取って代わるものが
あるのでしょうか?
これに代わるものを
考えている人もいます
02:22
Some people have been thinking考え
about alternatives代替案,
43
130130
2354
02:24
and one of the ideasアイデア that is out there
is the ideaアイディア of direct直接 democracy民主主義.
44
132508
3679
その1つが直接民主主義です
この考えでは
政治家を完全に通り越して
02:28
This is the ideaアイディア of bypassingバイパスする
politicians政治家 completely完全に
45
136790
2479
02:31
and having持つ people vote投票 directly直接 on issues問題,
46
139293
2403
様々な問題や法案について
人々が直接投票します
02:33
having持つ people vote投票 directly直接 on bills紙幣.
47
141720
2265
でも これは単純すぎます
02:36
But this ideaアイディア is naiveナイーブ
48
144415
1336
02:37
because there's too manyたくさんの things
that we would need to choose選択する.
49
145775
3171
決めないといけないことが
多すぎるからです
02:40
If you look at the 114thth US Congress会議,
50
148970
2782
例えば第114回の米国議会では
02:43
you will have seen見た that
the House of Representatives代表者
51
151776
2487
下院は6千件以上の法案を審議し
02:46
considered考慮される more than 6,000 bills紙幣,
52
154287
2889
上院は3千件以上の法案を審議
02:49
the Senate上院 considered考慮される
more than 3,000 bills紙幣
53
157200
2656
02:51
and they approved承認された more than 300 laws法律.
54
159880
2808
両院が可決した法案は3百件以上です
[毎週3件相当]
02:54
Those would be manyたくさんの decisions決定
55
162712
1579
これだけの決定を
02:56
that each person would have to make a week週間
56
164315
2187
各人が毎週するとなると
多すぎるでしょう
02:58
on topicsトピック that they know little about.
57
166526
2142
しかも ほとんど知らない分野のことです
ですから実際に
直接民主主義で置き換えるには
03:01
So there's a big大きい cognitive認知
bandwidth帯域幅 problem問題
58
169229
2281
03:03
if we're going to try to think about
direct直接 democracy民主主義 as a viable実行可能な alternative代替.
59
171534
3992
人の認知処理能力が大きな課題となります
03:08
So some people think about the ideaアイディア
of liquid液体 democracy民主主義, or fluid流体 democracy民主主義,
60
176205
4435
また 「リキッド・デモクラシー」
流動体民主主義という考えもあります
03:12
whichどの is the ideaアイディア that you endorse支持する
your political政治的 powerパワー to someone誰か,
61
180664
3776
自らの政治的決定を誰かに委ね
その人がまた誰かに委任するという風に
03:16
who can endorse支持する it to someone誰か elseelse,
62
184464
1700
委任関係を重ねていくことで
03:18
and, eventually最終的に, you create作成する
a large followerフォロワー networkネットワーク
63
186188
2541
03:20
in whichどの, at the end終わり, there's a few少数 people
that are making作る decisions決定
64
188753
3294
最終的には 少数の人が
自分の委任者や
委任者の委任者を代理して
決定を下すというものです
03:24
on behalf代わって of all of their彼らの followersフォロワー
and their彼らの followersフォロワー.
65
192071
3143
03:28
But this ideaアイディア alsoまた、 doesn't solve解決する
the problem問題 of the cognitive認知 bandwidth帯域幅
66
196326
4129
でも この考えにおいても
認知処理能力の問題は解決しないし
正直なところ 代表者を立てるという考えと
大差がありません
03:32
and, to be honest正直な, it's alsoまた、 quiteかなり similar類似
to the ideaアイディア of having持つ a representative代表.
67
200479
3877
03:36
So what I'm going to do today今日 is
I'm going to be a little bitビット provocative挑発的な,
68
204795
3468
そこで今日は
私はちょっと挑発的に
こんな問いを
投げかけたいと思います
03:40
and I'm going to ask尋ねる you, well:
69
208277
2300
03:42
What if, instead代わりに of trying試す
to bypassバイパス politicians政治家,
70
210601
6562
政治家を介するのを
やめようとする代わりに
政治家を自動化したらどうでしょう?
03:49
we tried試した to automate自動化する them?
71
217187
2200
03:57
The ideaアイディア of automationオートメーション is not new新しい.
72
225871
2926
自動化という考え自体は
新しくありません
04:00
It was started開始した more than 300 years ago,
73
228821
2080
3百年以上前に
04:02
when Frenchフランス語 weavers製織業者 decided決定しました
to automate自動化する the loom織機.
74
230925
3068
フランスの織工が
織機を自動化したのが始まりです
04:06
The winner勝者 of that industrial工業用 war戦争
was Joseph-Marieジョゼフ・マリー Jacquardジャカード.
75
234820
4360
その産業戦争を制したのは
ジョゼフ・マリー・ジャカールでした
彼はフランスの機織りで商人であり
04:11
He was a Frenchフランス語 weaverウィーバー and merchant商人
76
239204
1751
04:12
that married既婚 the loom織機
with the steam蒸気 engineエンジン
77
240979
2440
織機を蒸気機関と合体させ
04:15
to create作成する autonomous自律的 looms織機.
78
243443
2190
自動織機を作り出しました
04:17
And in those autonomous自律的 looms織機,
he gained得られた controlコントロール.
79
245657
2753
その自動織機で
自在な織り方が可能になり
04:20
He could now make fabricsファブリック that were
more complex複合体 and more sophisticated洗練された
80
248434
3885
人手で織れる布よりも
より複雑でより洗練されたものを
04:24
than the onesもの they
were ableできる to do by handハンド.
81
252343
2128
作れるようになりました
04:27
But alsoまた、, by winning勝つ that industrial工業用 war戦争,
82
255193
2632
また その産業戦争に勝つことで
04:29
he laid敷かれた out what has become〜になる
the blueprint青写真 of automationオートメーション.
83
257849
3524
自動化の設計図となるものも作ったのです
04:34
The way that we automate自動化する things
for the last 300 years
84
262135
2870
ここ3百年の間
物事を自動化する方法は
04:37
has always been the same同じ:
85
265029
1382
ずっと同じでした
04:39
we first identify識別する a need,
86
267006
2509
まずはニーズを特定し
そのニーズを満たすツールを作ります
04:41
then we create作成する a toolツール
to satisfy満たす that need,
87
269539
3184
先ほどのケースでは織機です
04:44
like the loom織機, in this case場合,
88
272747
2040
04:46
and then we study調査 how people use that toolツール
89
274811
2391
そして 人がそのツールを
どうやって使うか観察し
04:49
to automate自動化する that userユーザー.
90
277226
1485
その人の仕事を自動化するのです
こうして機械織機を経て
04:51
That's how we came来た
from the mechanical機械的 loom織機
91
279242
3061
04:54
to the autonomous自律的 loom織機,
92
282327
1896
自動織機にまでなりました
04:56
and that took取った us a thousand years.
93
284247
2120
ここまで千年かかりましたが
04:58
Now, it's taken撮影 us only a hundred years
94
286391
2071
同じやり方を使い
今は たった百年で
05:00
to use the same同じ scriptスクリプト
to automate自動化する the car.
95
288486
3211
車の運転を自動化するに至りました
05:05
But the thing is that, this time around,
96
293286
2452
ここで肝心なのは 今回の自動化が
05:07
automationオートメーション is kind種類 of for realリアル.
97
295762
2129
徹底しているということです
05:09
This is a videoビデオ that a colleague同僚 of mine鉱山
from Toshiba東芝 shared共有 with me
98
297915
3321
こちらは 東芝から来た同僚が
提供してくれたビデオで
05:13
that showsショー the factory工場
that manufactures製造する solid固体 state状態 drivesドライブ.
99
301260
3259
半導体ディスクドライブを
生産する工場の様子です
工場全体が1つのロボットになっており
05:16
The entire全体 factory工場 is a robotロボット.
100
304543
2018
05:18
There are no humans人間 in that factory工場.
101
306585
1925
工場内には人がいません
ほどなく ロボットは工場を離れ
05:21
And the robotsロボット are soonすぐに
to leave離れる the factories工場
102
309033
2221
05:23
and become〜になる part of our world世界,
103
311278
2022
私たちの世界の一部になり
05:25
become〜になる part of our workforce労働力.
104
313324
1835
労働力の一部になるでしょう
05:27
So what I do in my day jobジョブ
105
315183
1773
私が本業でやっているのは
05:28
is actually実際に create作成する toolsツール that integrate統合する
dataデータ for entire全体 countries
106
316980
3992
国全体の種々のデータを統合するツールを
作り出すことで
05:32
so that we can ultimately最終的に have
the foundations財団 that we need
107
320996
3466
将来 そういうマシンを
管理することが求められたときに
05:36
for a future未来 in whichどの we need
to alsoまた、 manage管理する those machines機械.
108
324486
3687
必要となる基盤を準備しています
05:41
But today今日, I'm not here
to talk to you about these toolsツール
109
329195
2906
でも ここで
国全体のデータを統合するツールについて
05:44
that integrate統合する dataデータ for countries.
110
332125
1824
お話しするつもりはありません
今日お話ししたいのは
別の構想についてです
05:46
But I'm here to talk to you
about another別の ideaアイディア
111
334463
2622
05:49
that mightかもしれない help us think about how to use
artificial人工的な intelligenceインテリジェンス in democracy民主主義.
112
337109
4865
民主主義における人工知能の活用法を
考えるのに役立つかもしれないことです
05:53
Because the toolsツール that I buildビルドする
are designed設計 for executiveエグゼクティブ decisions決定.
113
341998
4733
私が作っている あのツールは
最終決定をするためのものです
05:58
These are decisions決定 that can be castキャスト
in some sortソート of term期間 of objectivity客観性 --
114
346755
3842
公共投資の決定など
ある種の客観性を持つ決定です
06:02
publicパブリック investment投資 decisions決定.
115
350621
1745
06:04
But there are decisions決定
that are legislative立法,
116
352885
2631
でも 決定には
立法にかかわるものもあります
06:07
and these decisions決定 that are legislative立法
require要求する communicationコミュニケーション among people
117
355540
3787
立法のための決定は
様々な視点を持った人たちの間で
06:11
that have different異なる pointsポイント of view見る,
118
359351
1700
コミュニケーションを図り
06:13
require要求する participation参加, require要求する debateディベート,
119
361075
2613
皆が参加し討論し
検討することが必要です
06:15
require要求する deliberation審議.
120
363712
1478
06:18
And for a long time,
we have thought that, well,
121
366241
2804
長い間 私たちは
民主主義を良くするには
06:21
what we need to improve改善する democracy民主主義
is actually実際に more communicationコミュニケーション.
122
369069
3460
コミュニケーションがもっと必要だと
考えてきました
06:24
So all of the technologiesテクノロジー that we have
advanced高度な in the contextコンテキスト of democracy民主主義,
123
372553
3709
だから民主主義の流れで
進歩した技術というのは
06:28
whetherかどうか they are newspapers新聞
or whetherかどうか it is socialソーシャル mediaメディア,
124
376286
2778
新聞であれ
ソーシャルメディアであれ
私たちのコミュニケーションを
増やそうとするものでした
06:31
have tried試した to provide提供する us
with more communicationコミュニケーション.
125
379088
2382
でも すでに経験したとおり
06:34
But we've私たちは been down that rabbitウサギ hole,
126
382103
1822
それでは問題は解決しないと
分かっています
06:35
and we know that's not
what's going to solve解決する the problem問題.
127
383949
2748
これはコミュニケーションの問題ではなく
06:38
Because it's not a communicationコミュニケーション problem問題,
128
386721
1996
認知処理能力の問題だからです
06:40
it's a cognitive認知 bandwidth帯域幅 problem問題.
129
388741
1748
06:42
So if the problem問題 is one
of cognitive認知 bandwidth帯域幅,
130
390513
2366
問題が認知処理能力にあるなら
06:44
well, adding追加する more communicationコミュニケーション to people
131
392903
2587
コミュニケーションを増やしても
解決にはなりません
06:47
is not going to be
what's going to solve解決する it.
132
395514
2744
代わりに必要なのは
06:50
What we are going to need instead代わりに
is to have other technologiesテクノロジー
133
398282
3113
私たちに さばききれない
コミュニケーションの処理を
06:53
that help us deal対処 with
some of the communicationコミュニケーション
134
401419
3046
手助けしてくれる技術です
06:56
that we are overloaded過負荷 with.
135
404489
2242
06:58
Think of, like, a little avatarアバター,
136
406755
1699
小さなアバターか
ソフトウェア・エージェントか
07:00
a softwareソフトウェア agentエージェント,
137
408478
1339
07:01
a digitalデジタル Jiminyジミニー Cricketクリケット --
138
409841
1878
デジタル版ジミニー・クリケット
みたいなものでー
07:03
(Laughter笑い)
139
411743
1238
(笑)
07:05
that basically基本的に is ableできる
to answer回答 things on your behalf代わって.
140
413005
4012
自分の代わりに答えてくれるものを
考えるのです
07:09
And if we had that technology技術,
141
417759
1787
そんな技術があれば
07:11
we would be ableできる to offloadオフロード
some of the communicationコミュニケーション
142
419570
2478
今あるコミュニケーションの
重荷から少し解放され
07:14
and help, maybe, make better decisions決定
or decisions決定 at a larger大きい scale規模.
143
422072
4147
より良い決定や 大局的な決定が
できるようになるかもしれません
07:18
And the thing is that the ideaアイディア
of softwareソフトウェア agentsエージェント is alsoまた、 not new新しい.
144
426860
3719
ソフトウェアエージェントの考えも
新しいものではありません
07:22
We already既に use them all the time.
145
430603
2109
今でも しょっちゅう使っています
ソフトウェアエージェントを使い
07:25
We use softwareソフトウェア agentsエージェント
146
433216
1521
07:26
to choose選択する the way that we're going
to driveドライブ to a certainある locationロケーション,
147
434761
3675
目的地への運転経路を選んだり
07:31
the music音楽 that we're going to listen to
148
439070
2101
どんな音楽を聴くか選んだり
07:33
or to get suggestions提案
for the next books that we should read読む.
149
441758
3021
次に読む本の候補を絞ったりしています
07:37
So there is an obvious明らか ideaアイディア
in the 21stセント century世紀
150
445994
2574
そんな21世紀に
至極もっともな構想があります
ジャカールの時代に
蒸気機関と織機を組み合わせたのと
07:40
that was as obvious明らか as the ideaアイディア
151
448592
2643
07:43
of puttingパッティング together一緒に a steam蒸気 engineエンジン
with a loom織機 at the time of Jacquardジャカード.
152
451259
5581
同じくらいに
もっともなものです
07:49
And that ideaアイディア is combining結合する
direct直接 democracy民主主義 with softwareソフトウェア agentsエージェント.
153
457538
4456
直接民主主義を ソフトウェアエージェントと
組み合わせるのです
07:54
Imagine想像する, for a second二番, a world世界
154
462849
2121
こんな世界を想像してみてください
07:56
in whichどの, instead代わりに of having持つ
a representative代表 that representsは表す you
155
464994
3166
自分や ほかの何百万もの人の
代表者を立てる代わりに
08:00
and millions何百万 of other people,
156
468184
1574
08:01
you can have a representative代表
that representsは表す only you,
157
469782
3036
自分に固有の政治的見解を備えた
自分だけの代表者を
立てることができるのです
08:05
with your nuanced微妙 political政治的 views再生回数 --
158
473504
2254
08:07
that weird奇妙な combination組み合わせ
of libertarian自由主義者 and liberalリベラル
159
475782
3344
それはリバタリアンとリベラルの
奇妙な組み合わせで
ある問題にはちょっと保守的で
08:11
and maybe a little bitビット
conservative保守的な on some issues問題
160
479150
2392
別の問題では大いに進歩主義的かも
しれません
08:13
and maybe very progressiveプログレッシブ on othersその他.
161
481566
2108
08:15
Politicians政治家 nowadays今日は are packagesパッケージ,
and they're full満員 of compromises妥協.
162
483698
3267
現在の政治家はいわばパッケージで
多くの妥協をしなければなりません
08:18
But you mightかもしれない have someone誰か
that can represent代表する only you,
163
486989
3634
でも 代表は人間でなければ
という考えを捨てさえすれば
08:22
if you are willing喜んで to give up the ideaアイディア
164
490647
1852
自分だけの代表を
立てられるかもしれません
08:24
that that representative代表 is a human人間.
165
492523
2249
もしソフトウェアエージェントが
代表であれば
08:27
If that representative代表
is a softwareソフトウェア agentエージェント,
166
495229
2082
08:29
we could have a senate上院 that has
as manyたくさんの senators上院議員 as we have citizens市民.
167
497335
4170
市民と同じ数の議員で
議会を構成することができます
08:33
And those senators上院議員 are going to be ableできる
to read読む everyすべて billビル
168
501529
2858
それらの議員は
すべての法案に目を通し
すべてに投票をすることができます
08:36
and they're going to be ableできる
to vote投票 on each one of them.
169
504411
2747
08:39
So there's an obvious明らか ideaアイディア
that maybe we want to consider検討する.
170
507822
2956
これは検討に値する
至極もっともな構想でしょう
08:42
But I understandわかる that in this day and age年齢,
171
510802
2422
でも この時代にあって
こんな考えは怖く感じるかもしれません
08:45
this ideaアイディア mightかもしれない be quiteかなり scary怖い.
172
513248
1889
08:48
In fact事実, thinking考え of a robotロボット
coming到来 from the future未来
173
516391
3440
実際 未来からロボットがやってきて
私たちの政府運営を手助けするとしたら
08:51
to help us run走る our governments政府
174
519855
1673
08:53
sounds terrifying恐ろしい.
175
521552
1631
恐ろしいことに聞こえます
08:56
But we've私たちは been there before.
176
524223
1651
でも これはもう経験しています
08:57
(Laughter笑い)
177
525898
1273
(笑)
08:59
And actually実際に he was quiteかなり a niceいい guy.
178
527195
2495
事実 彼はすごく良い人でしたよね
09:03
So what would the Jacquardジャカード loom織機
versionバージョン of this ideaアイディア look like?
179
531677
6434
さて この構想は
どんな形で実現できるでしょうか?
09:10
It would be a very simple単純 systemシステム.
180
538135
1901
とてもシンプルなシステムです
09:12
Imagine想像する a systemシステム that you logログ in
and you create作成する your avatarアバター,
181
540060
3458
システムにログインして
自分のアバターを作り
09:15
and then you're going
to start開始 trainingトレーニング your avatarアバター.
182
543542
2456
アバターの訓練を始めます
09:18
So you can provide提供する your avatarアバター
with your reading読書 habits習慣,
183
546022
2682
アバターに自分の読書傾向を教え
09:20
or connect接続する it to your socialソーシャル mediaメディア,
184
548728
1861
ソーシャルメディアの情報を与え
09:22
or you can connect接続する it to other dataデータ,
185
550613
2408
心理テストを受けるなどして
09:25
for example by taking取る
psychological心理的 testsテスト.
186
553045
2272
その他のデータも与えます
09:27
And the niceいい thing about this
is that there's no deception欺瞞.
187
555341
2968
これが良いのは
だまし討ちがないことです
09:30
You are not providing提供する dataデータ to communicate通信する
with your friends友達 and family家族
188
558333
3339
友だちや家族との
やり取りのデータが
09:33
that then gets取得 used in a political政治的 systemシステム.
189
561696
3151
政治システムに
使われたりはしません
09:36
You are providing提供する dataデータ to a systemシステム
that is designed設計 to be used
190
564871
3704
皆さんがデータを提供するのは
自分の代理として政治的決定をするよう
設計されたシステムなのです
09:40
to make political政治的 decisions決定
on your behalf代わって.
191
568599
2116
皆さんは そのデータを用意し
訓練アルゴリズムを選びます
09:43
Then you take that dataデータ and you choose選択する
a trainingトレーニング algorithmアルゴリズム,
192
571264
3980
この部分は開かれた
市場になっており
09:47
because it's an open開いた marketplace市場
193
575268
1563
09:48
in whichどの different異なる people
can submit提出する different異なる algorithmsアルゴリズム
194
576855
2786
提供データから その人の
投票行動を推定するアルゴリズムは
09:51
to predict予測する how you're going to vote投票,
basedベース on the dataデータ you have provided提供された.
195
579665
4394
誰でも作ることができます
システム自体オープンで 特定の人が
アルゴリズムをコントロールすることもありません
09:56
And the systemシステム is open開いた,
so nobody誰も controlsコントロール the algorithmsアルゴリズム;
196
584083
3455
09:59
there are algorithmsアルゴリズム
that become〜になる more popular人気
197
587562
2112
人気のあるアルゴリズムもあれば
人気がないものも出てきます
10:01
and othersその他 that become〜になる lessもっと少なく popular人気.
198
589698
1723
最終的に システムを監査して
10:03
Eventually最終的に, you can audit監査 the systemシステム.
199
591445
1807
自分のアバターがどう動くか確認でき
10:05
You can see how your avatarアバター is workingワーキング.
200
593276
1881
それで良ければ
任せきりにするもよし
10:07
If you like it,
you can leave離れる it on autopilotオートパイロット.
201
595181
2152
もう少し自分で制御したいと思えば
10:09
If you want to be
a little more controlling制御する,
202
597357
2062
何か判断するときは必ず
10:11
you can actually実際に choose選択する that they ask尋ねる you
203
599443
1968
自分に問い合わせるよう
指定でき
10:13
everyすべて time they're going
to make a decision決定,
204
601435
2068
どこかその中間にしても
構いません
10:15
or you can be anywhereどこでも in betweenの間に.
205
603527
1635
民主主義があまり活用されていないのは
10:17
One of the reasons理由
why we use democracy民主主義 so little
206
605186
2405
ユーザインターフェイスが
まずいせいも あるかもしれません
10:19
mayかもしれない be because democracy民主主義
has a very bad悪い userユーザー interfaceインタフェース.
207
607615
3568
10:23
And if we improve改善する the userユーザー
interfaceインタフェース of democracy民主主義,
208
611207
2483
民主主義のユーザインターフェイスを
改善すれば
10:25
we mightかもしれない be ableできる to use it more.
209
613714
2127
もっと使われるように
なるかもしれません
10:28
Of courseコース, there's a lot of questions質問
that you mightかもしれない have.
210
616452
3207
もちろん たくさんの疑問がおありでしょう
10:32
Well, how do you train列車 these avatarsアバター?
211
620473
2161
どうやってアバターを訓練するのか?
10:34
How do you keep the dataデータ secure安全な?
212
622658
1894
データの安全性は?
10:36
How do you keep the systemsシステム
distributed配布された and auditable監査?
213
624576
3248
どうやってシステムを普及させ
検証可能にするのか?
10:39
How about my grandmother祖母,
who'sだれの 80 years old古い
214
627848
2062
インターネットすら使えない
80歳の祖母は
10:41
and doesn't know how to use the internetインターネット?
215
629946
1960
どうなるのか?
10:44
Trust信頼 me, I've heard聞いた them all.
216
632262
2221
そういう疑問はすべて
聞いてきました
10:46
So when you think about an ideaアイディア like this,
you have to beware注意する of pessimists悲観主義者
217
634507
4560
こんな構想を考えるときには
悲観主義者に注意しないといけません
10:51
because they are known既知の to have
a problem問題 for everyすべて solution溶液.
218
639091
4319
どんな解決策にも
文句のある人たちですから
10:55
(Laughter笑い)
219
643434
1825
(笑)
10:57
So I want to invite招待する you to think
about the biggerより大きい ideasアイデア.
220
645283
3040
皆さんには もっと高い視座で
考えていただきたいのです
11:00
The questions質問 I just showed示した you
are little ideasアイデア
221
648347
3626
先ほど示した疑問というのは
細かいことです
11:03
because they are questions質問
about how this would not work.
222
651997
2902
全部 これが機能しない理由についてですから
高い視座というのは
11:07
The big大きい ideasアイデア are ideasアイデア of:
223
655502
1981
11:09
What elseelse can you do with this
224
657507
1807
もしこれが機能したら
11:11
if this would happen起こる to work?
225
659338
1889
ほかに何ができるか
考えるということです
11:13
And one of those ideasアイデア is,
well, who writes書き込み the laws法律?
226
661774
3445
例えば 誰が法律を書くかです
11:17
In the beginning始まり, we could have
the avatarsアバター that we already既に have,
227
665854
4223
最初は 今あるアバターで
11:22
voting投票 on laws法律 that are written書かれた
by the senators上院議員 or politicians政治家
228
670101
3497
今いる議員や政治家が書いた法律について
11:25
that we already既に have.
229
673622
1351
投票をします
でも これがうまく行ったら
11:27
But if this were to work,
230
675491
1714
11:29
you could write書きます an algorithmアルゴリズム
231
677902
2350
ある程度の賛同が得られそうな
法律を書くアルゴリズムを作って
11:32
that could try to write書きます a law法律
232
680276
2150
11:34
that would get a certainある
percentageパーセンテージ of approval承認,
233
682450
2421
11:36
and you could reverse the processプロセス.
234
684895
1782
このプロセスを逆にもできます
11:38
Now, you mightかもしれない think that this ideaアイディア
is ludicrous馬鹿な and we should not do it,
235
686701
3512
こんな考えは馬鹿げていて
適切ではないと思われるかもしれませんが
11:42
but you cannotできない deny否定する that it's an ideaアイディア
that is only possible可能
236
690237
2786
直接民主主義とソフトウェアエージェントが
政治参加の可能な形態である世界で
11:45
in a world世界 in whichどの direct直接 democracy民主主義
and softwareソフトウェア agentsエージェント
237
693047
3020
はじめて可能になる案だということは
否定できないでしょう
11:48
are a viable実行可能な form of participation参加.
238
696091
2656
11:52
So how do we start開始 the revolution革命?
239
700596
2753
では この革命を
どうやって始めましょう?
11:56
We don't start開始 this revolution革命
with picketピケット fencesフェンス or protests抗議
240
704238
3310
ピケを張ったり
抗議行動をしたり
11:59
or by demanding要求の厳しい our current現在 politicians政治家
to be changedかわった into robotsロボット.
241
707572
4190
今の政治家をロボットに置き換えるよう
要求したりするのではありません
12:03
That's not going to work.
242
711786
1549
それでは うまく行きません
12:05
This is much more simple単純,
243
713359
1612
もっとシンプルに
12:06
much slowerもっとゆっくり
244
714995
1159
もっとゆっくり
12:08
and much more humble謙虚な.
245
716178
1414
もっと控えめにやります
12:09
We start開始 this revolution革命 by creating作成
simple単純 systemsシステム like this in grad卒業生 schools学校,
246
717616
4349
この仕組みを持つ
簡単なシステムを
大学院や図書館 非営利組織に
導入するところから革命を始めます
12:13
in libraries図書館, in nonprofits非営利団体.
247
721989
2094
12:16
And we try to figure数字 out
all of those little questions質問
248
724107
2654
先ほどの小さな疑問や
小さな問題のすべてについて
12:18
and those little problems問題
249
726785
1221
解決していきます
12:20
that we're going to have to figure数字 out
to make this ideaアイディア something viable実行可能な,
250
728030
3901
この構想を実行可能にし
信頼できるものにするために
いずれ解決しなければ
ならないことですから
12:23
to make this ideaアイディア something
that we can trust信頼.
251
731955
2351
12:26
And as we create作成する those systemsシステム that have
a hundred people, a thousand people,
252
734330
3635
百人、千人、1万人が
政治に関わらないような問題で
12:29
a hundred thousand people voting投票
in ways方法 that are not politically政治的に binding拘束,
253
737989
3770
投票するシステムを作ることで
この構想への信頼が高まり
12:33
we're going to develop開発する trust信頼 in this ideaアイディア,
254
741783
2018
世界が変わっていくでしょう
12:35
the world世界 is going to change変化する,
255
743825
1519
12:37
and those that are as little
as my daughter is right now
256
745368
2875
そして 今はこれくらいの小さな私の娘世代が
12:40
are going to grow成長する up.
257
748267
1337
大人になって
12:42
And by the time my daughter is my age年齢,
258
750580
2369
私の年になるころには
12:44
maybe this ideaアイディア, that I know
today今日 is very crazy狂った,
259
752973
4436
今はクレイジーなこの構想も
もしかしたら
12:49
mightかもしれない not be crazy狂った to her
and to her friends友達.
260
757433
4134
娘たちにはクレイジーでは
なくなっているかもしれません
12:53
And at that pointポイント,
261
761956
1837
そのときには
私たちの歴史は終わりを迎えますが
12:55
we will be at the end終わり of our history歴史,
262
763817
2603
12:58
but they will be
at the beginning始まり of theirsそれらの.
263
766444
2821
彼らの歴史が幕を開けているでしょう
13:01
Thank you.
264
769646
1183
ありがとうございました
13:02
(Applause拍手)
265
770853
3042
(拍手)
Translated by Yuko Yoshida
Reviewed by Natsuhiko Mizutani

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee