ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

세자르 히달고(César Hidalgo): 정치인을 대체할 대담한 생각

Filmed:
2,044,328 views

세자르 히달고는 우리의 망가진 정치 체제를 바로잡기 위해 급진적인 제안을 한다: 자동화 시켜라! 이 도발적인 강연에서 그는 시민들이 직접 민주적 결정에 참여하는 개인화된 AI 대표단을 만들 수 있도록 함으로써 정치인들을 퇴각시키겠다는 대담한 생각을 간략하게 설명한다. 집단적인 결정을 내리고 민주주의에 대한 이해를 넓히는 새로운 방법을 탐구해 보자.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
오직 저 뿐 인가요,
00:15
or are there other people here
1
3141
2332
아니면 여기 계신분들 중
00:17
that are a little bit비트
disappointed실망한 with democracy민주주의?
2
5497
2344
민주주의에 조금 실망한
사람들이 더 있나요?
00:20
(Applause박수 갈채)
3
8986
2336
(박수)
00:24
So let's look at a few조금 numbers번호.
4
12141
2071
수치를 조금 살펴 보도록 하죠.
00:26
If we look across건너서 the world세계,
5
14934
2173
전 세계적으로
00:29
the median중앙값 turnout투표율
in presidential대통령 elections선거
6
17131
3892
지난 30 년간의 대통령
선거에서 나타난
00:33
over the last 30 years연령
7
21047
1651
투표율의 중간값이
00:34
has been just 67 percent퍼센트.
8
22722
2622
오직 67% 정도밖에 되지 않았습니다.
00:38
Now, if we go to Europe유럽
9
26329
1973
유럽의 경우,
00:40
and we look at people that participated참여한
in EU유럽 ​​연합 parliamentary의회의 elections선거,
10
28326
4428
EU 의회 선거에 참가한
사람들을 살펴 보았을 때
00:44
the median중앙값 turnout투표율 in those elections선거
11
32778
2071
선거율의 중간 값은
00:46
is just 42 percent퍼센트.
12
34873
2104
42%에 불과했습니다.
00:50
Now let's go to New새로운 York요크,
13
38125
1669
그럼 뉴욕을 살펴 볼까요.
00:51
and let's see how many많은 people voted투표했다
in the last election선거 for mayor시장.
14
39818
4681
저번 뉴욕 시장 선거에 사람들이
얼마나 투표에 참여했는지 보면
00:56
We will find that only
24 percent퍼센트 of people showed보여 주었다 up to vote투표.
15
44523
3817
단 24%만이 투표하러 갔다는
사실을 알 수 있습니다.
01:01
What that means방법 is that,
if "Friends친구" was still running달리는,
16
49063
3095
이 의미는 만약 "프렌즈"가
아직 방영 중이었다면
01:04
Joey캥거루 새끼 and maybe Phoebe페베
would have shown표시된 up to vote투표.
17
52182
3348
조이와 피비도
투표를 하러 왔을 거라는 거죠.
01:07
(Laughter웃음)
18
55554
1290
(웃음)
01:09
And you cannot~ 할 수 없다. blame비난 them
because people are tired피곤한 of politicians정치인.
19
57434
4426
우리는 그들을 비난할 수 없어요.
사람들은 정치인들에게 지쳐있으니까요.
01:13
And people are tired피곤한 of other people
using~을 사용하여 the data데이터 that they have generated생성 된
20
61884
3887
사람들은 자신이 생성한 테이터를 이용해
01:17
to communicate소통하다 with
their그들의 friends친구 and family가족,
21
65795
2198
친구, 가족과 소통하려 하며,
01:20
to target목표 political주재관 propaganda선전 at them.
22
68017
2094
정치적 선전을 선동하는
사람들에 지쳐있습니다.
01:22
But the thing about this
is that this is not new새로운.
23
70519
2728
하지만 여기서 요점은
이 문제가 새롭지 않다는 거죠.
01:25
Nowadays현대, people use likes좋아하는 사람
to target목표 propaganda선전 at you
24
73271
3225
현재 사람들은 '좋아요'를 사용하여
정치적 선전을 여러분에게 선동하죠.
01:28
before they use your zip지퍼 code암호
or your gender성별 or your age나이,
25
76520
3373
우리의 우편번호, 성별,
또는 나이를 사용하기 전에요.
01:31
because the idea생각 of targeting타겟팅 people
with propaganda선전 for political주재관 purposes목적
26
79917
3570
정치적 목적으로 사람들에게
선전을 선동하는 것은
01:35
is as old늙은 as politics정치.
27
83511
1592
정치만큼 오래 되었기 때문이죠.
01:37
And the reason이유 why that idea생각 is there
28
85530
2278
그리고 이런 생각을 하는 이유는
01:39
is because democracy민주주의
has a basic기본 vulnerability취약점.
29
87832
3472
민주주의가 근본적인 취약점을
지니고 있기 때문입니다.
01:43
This is the idea생각 of a representative대리인.
30
91710
1932
그것은 대표자의 생각입니다.
01:46
In principle원리, democracy민주주의 is the ability능력
of people to exert발휘하다 power.
31
94049
3944
원칙적으로 민주주의는 사람들이
권력을 행사할 수 있는 능력입니다.
01:50
But in practice연습, we have to delegate대리자
that power to a representative대리인
32
98017
3818
하지만 실제로는 대표자에게 우리를 대신해
그 힘을 행사하도록 위임해야 합니다
01:53
that can exert발휘하다 that power for us.
33
101859
2255
01:56
That representative대리인 is a bottleneck병목,
34
104561
1825
그 대표는 극 소수이거나,
01:58
or a weak약한 spot자리.
35
106410
1297
취약점이 되기도 합니다.
01:59
It is the place장소 that you want to target목표
if you want to attack공격 democracy민주주의
36
107731
3949
민주주의를 공략할 때 겨냥하는 곳으로
02:03
because you can capture포착 democracy민주주의
by either어느 한 쪽 capturing캡처 that representative대리인
37
111704
3489
대표자 또는 대표자를
선택하는 방법을 억류하여
02:07
or capturing캡처 the way
that people choose고르다 it.
38
115217
2148
민주주의 전체를
함락시킬 수 있기 때문입니다.
02:10
So the big question문제 is:
39
118065
1416
여기서 중요한 질문은
02:11
Is this the end종료 of history역사?
40
119505
1704
이것이 역사의 끝인가?
02:13
Is this the best베스트 that we can do
41
121989
3103
이것이 우리가 할 수 있는 최선인가,
02:17
or, actually사실은, are there alternatives대안들?
42
125878
3067
아니면 사실 대안책이 있는가?
02:22
Some people have been thinking생각
about alternatives대안들,
43
130130
2354
몇몇 사람들은
대안책에 대해 생각해왔고,
02:24
and one of the ideas아이디어 that is out there
is the idea생각 of direct곧장 democracy민주주의.
44
132508
3679
그 중 한 가지는 바로
직접 민주주의 개념입니다.
02:28
This is the idea생각 of bypassing우회하는
politicians정치인 completely완전히
45
136790
2479
정치인을 완전히 따돌리고
02:31
and having people vote투표 directly직접 on issues문제,
46
139293
2403
사람들이 문제에 대해
직접 투표를 하도록 함으로써
02:33
having people vote투표 directly직접 on bills지폐.
47
141720
2265
법안에 대해 직접 투표할 수
있게 하는 개념입니다.
02:36
But this idea생각 is naive소박한
48
144415
1336
하지만 순진한 생각이죠.
02:37
because there's too many많은 things
that we would need to choose고르다.
49
145775
3171
우리가 정해야 할 일들이
너무 많기 때문입니다.
02:40
If you look at the 114th US Congress대회,
50
148970
2782
제114차 미국 의회를 살펴 보자면
02:43
you will have seen that
the House of Representatives대표자
51
151776
2487
하원이 6,000개 이상의
02:46
considered깊이 생각한 more than 6,000 bills지폐,
52
154287
2889
법안을 제안했고,
02:49
the Senate상원 considered깊이 생각한
more than 3,000 bills지폐
53
157200
2656
상원은 3,000개 이상의
법안을 제안했으며,
02:51
and they approved승인 된 more than 300 laws법률.
54
159880
2808
300건 이상 승인되었습니다.
02:54
Those would be many많은 decisions결정들
55
162712
1579
많은 결정들은
02:56
that each마다 person사람 would have to make a week
56
164315
2187
사람들은 잘 알지 못하는 주제에 대해
02:58
on topics주제 that they know little about.
57
166526
2142
일주일을 투자해 만들어진 것입니다.
03:01
So there's a big cognitive인지 적
bandwidth대역폭 problem문제
58
169229
2281
우리가 실행 가능한 대안으로서
직접 민주주의를 제안했을 때
03:03
if we're going to try to think about
direct곧장 democracy민주주의 as a viable생존 가능한 alternative대안.
59
171534
3992
발생하는 큰 인식의
대역폭 문제가 있습니다.
03:08
So some people think about the idea생각
of liquid액체 democracy민주주의, or fluid유동체 democracy민주주의,
60
176205
4435
몇몇 사람들은 유동적인 민주주의를
실행할 것을 제안하는데,
03:12
which어느 is the idea생각 that you endorse지지하다
your political주재관 power to someone어떤 사람,
61
180664
3776
이는 여러분이 누군가에게 자신의
정치적 권력을 위임하면
03:16
who can endorse지지하다 it to someone어떤 사람 else그밖에,
62
184464
1700
그 사람은 또 다시 그 권력을
다른 사람에게 위임할 수 있어서
03:18
and, eventually결국, you create몹시 떠들어 대다
a large follower수행원 network회로망
63
186188
2541
결과적으로 큰 지지자
네트워크를 형성하게 되고,
03:20
in which어느, at the end종료, there's a few조금 people
that are making만들기 decisions결정들
64
188753
3294
이 네트워크에서 마지막에는
그들의 지지자들의 대신하여
03:24
on behalf대신에 of all of their그들의 followers추종자
and their그들의 followers추종자.
65
192071
3143
결정을 내리는 소수의 사람만
남게 되는 제도입니다.
03:28
But this idea생각 also또한 doesn't solve풀다
the problem문제 of the cognitive인지 적 bandwidth대역폭
66
196326
4129
하지만 이 개념 또한 인지적
대역폭의 문제를 해결하지는 못하며,
03:32
and, to be honest정직한, it's also또한 quite아주 similar비슷한
to the idea생각 of having a representative대리인.
67
200479
3877
또한, 솔직히 말해 이는 대표자를
뽑는 개념과도 유사합니다.
03:36
So what I'm going to do today오늘 is
I'm going to be a little bit비트 provocative성나게 하는,
68
204795
3468
따라서 오늘 전 약간 도발적인
행동을 하려 합니다.
03:40
and I'm going to ask청하다 you, well:
69
208277
2300
그리고 여러분께 묻고
싶은 것이 있습니다.
03:42
What if, instead대신에 of trying견딜 수 없는
to bypass우회로 politicians정치인,
70
210601
6562
만일 정치인들을 퇴각시키는 대신
03:49
we tried시도한 to automate자동화하다 them?
71
217187
2200
그들을 자동화한다면 어떨까요?
03:57
The idea생각 of automation오토메이션 is not new새로운.
72
225871
2926
자동화의 개념은 새로운 것이 아닙니다.
04:00
It was started시작한 more than 300 years연령 ago...전에,
73
228821
2080
300년도 더 전에
04:02
when French프랑스 국민 weavers제작자 decided결정적인
to automate자동화하다 the loom직조기.
74
230925
3068
프랑스의 방직공들은 방직기을
자동화하기로 결심했죠.
04:06
The winner우승자 of that industrial산업의 war전쟁
was Joseph-Marie조지프 마리 Jacquard자카드.
75
234820
4360
그리고 그 산업 전쟁의 승자는
조제프-마리 자카르였습니다.
04:11
He was a French프랑스 국민 weaver직공 and merchant상인
76
239204
1751
그는 프랑스인 방직공이자 상인이었으며
04:12
that married기혼 the loom직조기
with the steam증기 engine엔진
77
240979
2440
자동 방직기를 만들기 위해
04:15
to create몹시 떠들어 대다 autonomous자발적인 looms직기.
78
243443
2190
방직기와 증기 기관을 결합하였습니다.
04:17
And in those autonomous자발적인 looms직기,
he gained얻은 control제어.
79
245657
2753
그리고 그는 자동 방직기의
통제권을 쥐었습니다.
04:20
He could now make fabrics직물 that were
more complex복잡한 and more sophisticated매우 복잡한
80
248434
3885
그는 이제 손으로 만든 것보다
더 복잡하고 정교한
04:24
than the ones그들 they
were able할 수 있는 to do by hand.
81
252343
2128
천을 만들 수 있게 되었습니다.
04:27
But also또한, by winning승리 that industrial산업의 war전쟁,
82
255193
2632
또한 산업 전쟁에서 승리함으로써
04:29
he laid놓은 out what has become지다
the blueprint청사진 of automation오토메이션.
83
257849
3524
무엇이 자동화의 청사진이 되었는지
제시하였습니다.
04:34
The way that we automate자동화하다 things
for the last 300 years연령
84
262135
2870
지난 300년 간
사물을 자동화한 방식은
04:37
has always been the same같은:
85
265029
1382
언제나 같았습니다.
04:39
we first identify식별하다 a need,
86
267006
2509
우리는 처음으로 필요성을 확인하고
04:41
then we create몹시 떠들어 대다 a tool수단
to satisfy풀다 that need,
87
269539
3184
필요성을 충족시킬 도구를 만듭니다.
04:44
like the loom직조기, in this case케이스,
88
272747
2040
이 경우에는 방직기가 되겠죠.
04:46
and then we study연구 how people use that tool수단
89
274811
2391
그 후 사용자를 자동화하기 위해
04:49
to automate자동화하다 that user사용자.
90
277226
1485
사람들이 도구를
어떻게 사용할지 탐구했습니다.
04:51
That's how we came왔다
from the mechanical기계의 loom직조기
91
279242
3061
이렇게 기계로 작동되는 방직기에서
04:54
to the autonomous자발적인 loom직조기,
92
282327
1896
자동 방직기로 발전하였고
04:56
and that took~했다 us a thousand years연령.
93
284247
2120
이것을 실천하는 데
천 년이 걸렸습니다.
04:58
Now, it's taken취한 us only a hundred years연령
94
286391
2071
차를 자동화할 때
같은 스크립터를 사용하는데
05:00
to use the same같은 script스크립트
to automate자동화하다 the car.
95
288486
3211
고작 백년 밖에 걸리지 않았습니다.
05:05
But the thing is that, this time around,
96
293286
2452
하지만 중요한 점은
05:07
automation오토메이션 is kind종류 of for real레알.
97
295762
2129
이제 자동화는 실제라는 것입니다.
05:09
This is a video비디오 that a colleague동료 of mine광산
from Toshiba도시바 shared공유 된 with me
98
297915
3321
이 영상은 도시바에 다니는
저의 동료가 저와 공유한 것이며,
05:13
that shows the factory공장
that manufactures제품 solid고체 state상태 drives드라이브.
99
301260
3259
SSD를 만드는 공장을 보여 줍니다.
05:16
The entire완전한 factory공장 is a robot기계 인간.
100
304543
2018
공장 전체가 로봇이라고 할 수 있죠.
05:18
There are no humans인간 in that factory공장.
101
306585
1925
저 공장에 사람은 없습니다.
05:21
And the robots로봇 are soon
to leave휴가 the factories공장
102
309033
2221
그리고 저 로봇들은
곧 공장 밖으로 나와
05:23
and become지다 part부품 of our world세계,
103
311278
2022
우리 세상의 일부가 되고,
05:25
become지다 part부품 of our workforce인력.
104
313324
1835
우리 노동 인구의 일부가 될 것입니다.
05:27
So what I do in my day job
105
315183
1773
제가 본업으로 하는 일은
05:28
is actually사실은 create몹시 떠들어 대다 tools도구들 that integrate통합하다
data데이터 for entire완전한 countries국가
106
316980
3992
사실 국가 전체의 테이터를 통합하는
도구를 만드는 것 입니다.
05:32
so that we can ultimately궁극적으로 have
the foundations재단 that we need
107
320996
3466
그렇게 함으로써
우리가 미래에 이 기계들을
05:36
for a future미래 in which어느 we need
to also또한 manage꾸리다 those machines기계들.
108
324486
3687
관리할 기반을 다질 수
있도록 하는 것입니다.
05:41
But today오늘, I'm not here
to talk to you about these tools도구들
109
329195
2906
하지만 오늘 저는
국가들을 위해 데이터를 통합하는
05:44
that integrate통합하다 data데이터 for countries국가.
110
332125
1824
도구에 대해 말하기 위해
이 자리에 선 것이 아닙니다.
05:46
But I'm here to talk to you
about another다른 idea생각
111
334463
2622
인공지능을 민주주의에
적용하는 것을 도와 줄 만한
05:49
that might help us think about how to use
artificial인공의 intelligence지성 in democracy민주주의.
112
337109
4865
다른 견해를 말씀드리기
위해 이 곳에 왔습니다.
05:53
Because the tools도구들 that I build짓다
are designed디자인 된 for executive행정부 decisions결정들.
113
341998
4733
왜냐하면 제가 만든 도구가
행정상의 결정을 위해 만들어 졌고
05:58
These are decisions결정들 that can be cast캐스트
in some sort종류 of term기간 of objectivity객관성 --
114
346755
3842
이 결정은 일종의 객관성 띠며
공공 투자 결정의 측면에서
06:02
public공공의 investment투자 decisions결정들.
115
350621
1745
제시될 수 있습니다.
06:04
But there are decisions결정들
that are legislative입법상의,
116
352885
2631
하지만 입법적 결정이 존재하고,
06:07
and these decisions결정들 that are legislative입법상의
require요구하다 communication통신 among사이에 people
117
355540
3787
이 입법적 결정들은
서로 다른 시각을 가진
06:11
that have different다른 points전철기 of view전망,
118
359351
1700
사람들 사이의 의사소통과,
06:13
require요구하다 participation참여, require요구하다 debate논쟁,
119
361075
2613
참여와 토론,
06:15
require요구하다 deliberation숙고.
120
363712
1478
심사숙고함을 요합니다.
06:18
And for a long time,
we have thought that, well,
121
366241
2804
민주주의를 발전하기 위해
우리가 해야 할 일은
06:21
what we need to improve돌리다 democracy민주주의
is actually사실은 more communication통신.
122
369069
3460
사실 소통을 늘리는 것이라고
오랫동안 생각해 왔습니다.
06:24
So all of the technologies기술 that we have
advanced많은 in the context문맥 of democracy민주주의,
123
372553
3709
따라서 민주주의라는 이름으로
발전한 모든 기술들은
06:28
whether인지 어떤지 they are newspapers신문
or whether인지 어떤지 it is social사회적인 media미디어,
124
376286
2778
그것이 신문이든,
소셜미디어든 상관없이
06:31
have tried시도한 to provide~을 제공하다 us
with more communication통신.
125
379088
2382
우리가 더 많은 소통을
할 수 있도록 도왔습니다.
06:34
But we've우리는 been down that rabbit토끼 hole구멍,
126
382103
1822
하지만 우리는 혼돈에 빠져있고
06:35
and we know that's not
what's going to solve풀다 the problem문제.
127
383949
2748
이것이 문제를 해결해 주지
않을 것이란 것을 알고 있습니다.
06:38
Because it's not a communication통신 problem문제,
128
386721
1996
왜냐하면 이것이 소통의 문제가 아닌,
06:40
it's a cognitive인지 적 bandwidth대역폭 problem문제.
129
388741
1748
인지 대역폭의 문제이기 때문입니다.
06:42
So if the problem문제 is one
of cognitive인지 적 bandwidth대역폭,
130
390513
2366
만약에 인지 대역폭이 문제라면,
06:44
well, adding첨가 more communication통신 to people
131
392903
2587
사람들 간의 소통을 늘리는 것은
06:47
is not going to be
what's going to solve풀다 it.
132
395514
2744
문제를 해결하는 방법이
되지 못할 것입니다.
06:50
What we are going to need instead대신에
is to have other technologies기술
133
398282
3113
대신 우리가 해야 할 일은
과부화된 소통의 일부를
06:53
that help us deal거래 with
some of the communication통신
134
401419
3046
처리하는 것을 도와줄 만한
06:56
that we are overloaded과부하 with.
135
404489
2242
기술을 가지는 것입니다.
06:58
Think of, like, a little avatar화신,
136
406755
1699
작은 아바타,
07:00
a software소프트웨어 agent에이전트,
137
408478
1339
소프트웨어 에이전트,
07:01
a digital디지털 Jiminy지미니 Cricket크리켓 --
138
409841
1878
디지털로 된 지미니 크리켓
을 떠올려보세요.
07:03
(Laughter웃음)
139
411743
1238
(웃음)
07:05
that basically원래 is able할 수 있는
to answer대답 things on your behalf대신에.
140
413005
4012
여러분을 대신해
질문에 대답을 할 수 있는 것들이죠.
07:09
And if we had that technology과학 기술,
141
417759
1787
그리고 만약 우리에게
그런 기술이 있었다면
07:11
we would be able할 수 있는 to offload짐을 내리다
some of the communication통신
142
419570
2478
우리는 소통을 조금
줄일 수 있을 것이고
07:14
and help, maybe, make better decisions결정들
or decisions결정들 at a larger더 큰 scale규모.
143
422072
4147
어쩌면 더 나은 결정을 내리거나
더 큰 규모의 결정을 내릴 수 있도록 돕겠죠.
07:18
And the thing is that the idea생각
of software소프트웨어 agents자치령 대표 is also또한 not new새로운.
144
426860
3719
중요한 것은 소프트웨어 에이전트
또한 새로운 것이 아닙니다.
07:22
We already이미 use them all the time.
145
430603
2109
우리는 이미 굉장히 자주
이용하고 있습니다.
07:25
We use software소프트웨어 agents자치령 대표
146
433216
1521
우린 소프트웨어 에이전트를 통해
07:26
to choose고르다 the way that we're going
to drive드라이브 to a certain어떤 location위치,
147
434761
3675
어떠한 장소를 가기 위한
경로를 고르기도 하고,
07:31
the music음악 that we're going to listen to
148
439070
2101
어떤 음악을 들을지 정하기도 하며,
07:33
or to get suggestions제안
for the next다음 것 books서적 that we should read독서.
149
441758
3021
다음엔 무슨 책을 읽을 지
추천을 받기도 합니다.
07:37
So there is an obvious분명한 idea생각
in the 21st century세기
150
445994
2574
이렇듯 21세기에도 마찬가지로
07:40
that was as obvious분명한 as the idea생각
151
448592
2643
자카르가 살던 시대에
증기기관과 방직기를
07:43
of putting퍼팅 together함께 a steam증기 engine엔진
with a loom직조기 at the time of Jacquard자카드.
152
451259
5581
결합한 것만큼 명확한
발상이 있습니다.
07:49
And that idea생각 is combining결합하다
direct곧장 democracy민주주의 with software소프트웨어 agents자치령 대표.
153
457538
4456
그것은 바로 직접 민주주의와
소프트웨어 에이전트를 결합하는 것입니다.
07:54
Imagine상상해 보라., for a second둘째, a world세계
154
462849
2121
잠시 상상해 보세요.
07:56
in which어느, instead대신에 of having
a representative대리인 that represents대표하다 you
155
464994
3166
여러분과 수많은 다른 사람들을 대신하는
08:00
and millions수백만 of other people,
156
468184
1574
대표자가 아니라
08:01
you can have a representative대리인
that represents대표하다 only you,
157
469782
3036
오직 여러분만을 대신하는
대표자를 가지는 세상을요.
08:05
with your nuanced미묘한 political주재관 viewsviews --
158
473504
2254
그 대표자는 여러분의 미묘한 정치관,
08:07
that weird기묘한 combination콤비네이션
of libertarian자유 주의자 and liberal선심 쓰는
159
475782
3344
즉 자유의지론과 진보주의의
이상한 결합,
08:11
and maybe a little bit비트
conservative전통적인 on some issues문제
160
479150
2392
그리고 몇몇 문제들에
대해선 보수적이고,
08:13
and maybe very progressive진보적 인 on others다른 사람.
161
481566
2108
또 다른 문제들에 대해선 매우
진보적인 것을 대표할 것입니다.
08:15
Politicians정치가들 nowadays현대 are packages꾸러미,
and they're full완전한 of compromises타협하다.
162
483698
3267
오늘날의 정치인들은 일괄적이며,
온갖 타협들로 가득차 있습니다.
08:18
But you might have someone어떤 사람
that can represent말하다 only you,
163
486989
3634
하지만 오직 여러분만을 대표하는
누군가가 있는 겁니다.
08:22
if you are willing자발적인 to give up the idea생각
164
490647
1852
만약 여러분이 그 대표자가
사람일 것이라는 생각만 버린다면요.
08:24
that that representative대리인 is a human인간의.
165
492523
2249
08:27
If that representative대리인
is a software소프트웨어 agent에이전트,
166
495229
2082
만약 그 대표자가
소프트웨어 에이전트라면,
08:29
we could have a senate상원 that has
as many많은 senators상원 의원 as we have citizens시민.
167
497335
4170
우리는 시민들 만큼 많은
상원 의원을 가진 상원을 가질 수 있죠.
08:33
And those senators상원 의원 are going to be able할 수 있는
to read독서 every...마다 bill계산서
168
501529
2858
그리고 그 의원들은 모든 법안들을
읽을 수 있을 것이며,
08:36
and they're going to be able할 수 있는
to vote투표 on each마다 one of them.
169
504411
2747
그 각각의 법안들에 대해
투표를 할 수도 있을 것입니다.
08:39
So there's an obvious분명한 idea생각
that maybe we want to consider중히 여기다.
170
507822
2956
우리가 한 번쯤
고려해 볼 만한 발상이죠.
08:42
But I understand알다 that in this day and age나이,
171
510802
2422
하지만 저는 현재, 이 시대에
08:45
this idea생각 might be quite아주 scary무서운.
172
513248
1889
이 발상이 꽤나 무섭게
느껴질 것임을 이해합니다.
08:48
In fact, thinking생각 of a robot기계 인간
coming오는 from the future미래
173
516391
3440
사실 미래에서 온 로봇이
정부를 운영하는 것을
08:51
to help us run운영 our governments정부
174
519855
1673
도와주는 것을 상상하는 것 만으로도
08:53
sounds소리 terrifying겁나게 하는.
175
521552
1631
겁이 나죠.
08:56
But we've우리는 been there before.
176
524223
1651
하지만 우리는
그곳에 가본 적이 있어요.
08:57
(Laughter웃음)
177
525898
1273
(웃음)
08:59
And actually사실은 he was quite아주 a nice좋은 guy.
178
527195
2495
그리고 실제로 그는
꽤 친절한 사람이었죠.
09:03
So what would the Jacquard자카드 loom직조기
version번역 of this idea생각 look like?
179
531677
6434
그럼 자카르 방직기 버전의
이 발상은 어떤 것 일까요?
09:10
It would be a very simple단순한 system체계.
180
538135
1901
그것은 아마도
아주 간단한 시스템일 겁니다.
09:12
Imagine상상해 보라. a system체계 that you log로그 in
and you create몹시 떠들어 대다 your avatar화신,
181
540060
3458
로그인을 한 뒤 아바타를 만들고.
09:15
and then you're going
to start스타트 training훈련 your avatar화신.
182
543542
2456
그 아바타를 훈련시키는
시스템을 상상해 보세요.
09:18
So you can provide~을 제공하다 your avatar화신
with your reading독서 habits버릇,
183
546022
2682
아바타에게 여러분의
독서 습관을 제공할 수 있고,
09:20
or connect잇다 it to your social사회적인 media미디어,
184
548728
1861
자신의 소셜미디어에
연결할 수도 있을 것이며,
09:22
or you can connect잇다 it to other data데이터,
185
550613
2408
다른 데이터에 연결할 수도 있습니다.
09:25
for example by taking취득
psychological심리적 인 tests검사들.
186
553045
2272
예를 들어 심리테스트를 통해서요.
09:27
And the nice좋은 thing about this
is that there's no deception기만.
187
555341
2968
그리고 이 시스템의 장점은
속일 수가 없다는 점입니다.
09:30
You are not providing제공하는 data데이터 to communicate소통하다
with your friends친구 and family가족
188
558333
3339
친구, 가족과 소통하기 위해
정치 시스템에 사용되는 데이터를
09:33
that then gets도착 used in a political주재관 system체계.
189
561696
3151
여러분은 제공하지 않을 것입니다.
09:36
You are providing제공하는 data데이터 to a system체계
that is designed디자인 된 to be used
190
564871
3704
여러분을 대신하여
정치적 결정을 내리도록 만들어진
09:40
to make political주재관 decisions결정들
on your behalf대신에.
191
568599
2116
시스템에 데이터를 제공할 것입니다.
09:43
Then you take that data데이터 and you choose고르다
a training훈련 algorithm연산,
192
571264
3980
그리고 그 데이터를 가져가
훈련 알고리즘을 선택합니다.
09:47
because it's an open열다 marketplace시장
193
575268
1563
여러분이 제공한 데이터를 바탕으로
09:48
in which어느 different다른 people
can submit제출하다 different다른 algorithms알고리즘
194
576855
2786
어떻게 투표할 것인지 예측하기 위해
서로 다른 사람이
09:51
to predict예측하다 how you're going to vote투표,
based기반 on the data데이터 you have provided제공된.
195
579665
4394
다른 알고리즘을 제출할 수 있는
열린 시장이기 때문이죠.
09:56
And the system체계 is open열다,
so nobody아무도 controls통제 수단 the algorithms알고리즘;
196
584083
3455
그리고 그 시스템은 공개적이어서
아무도 알고리즘을 제어할 수 없죠.
09:59
there are algorithms알고리즘
that become지다 more popular인기 있는
197
587562
2112
더 인기 있는 알고리즘과
10:01
and others다른 사람 that become지다 less적게 popular인기 있는.
198
589698
1723
그렇지 않은 알고리즘을 있지만요.
10:03
Eventually결국, you can audit심사 the system체계.
199
591445
1807
궁극적으로 여러분은
그 시스템을 감시할 수 있습니다.
10:05
You can see how your avatar화신 is working.
200
593276
1881
본인의 아바타가
어떻게 작동하고 있는지 볼 수 있고,
10:07
If you like it,
you can leave휴가 it on autopilot자동 조종 장치.
201
595181
2152
만약 마음에 든다면,
아바타를 자동 상태로 둘 수 있으며,
10:09
If you want to be
a little more controlling제어,
202
597357
2062
만약 약간의 통제를 원한다면,
10:11
you can actually사실은 choose고르다 that they ask청하다 you
203
599443
1968
사실 아바타들이 결정을 내릴 때마다
10:13
every...마다 time they're going
to make a decision결정,
204
601435
2068
여러분에게 묻도록 선택할 수도 있고,
10:15
or you can be anywhere어딘가에 in between중에서.
205
603527
1635
또는 그 중간 쯤으로
지정해 놓을 수 있습니다.
10:17
One of the reasons원인
why we use democracy민주주의 so little
206
605186
2405
우리가 민주주의를 잘 활용하지
않는 이유 중 하나는
10:19
may할 수있다 be because democracy민주주의
has a very bad나쁜 user사용자 interface인터페이스.
207
607615
3568
아마 민주주의가 매우 열악한 사용자
인터페이스를 가지고 있기 때문입니다.
10:23
And if we improve돌리다 the user사용자
interface인터페이스 of democracy민주주의,
208
611207
2483
만약 우리가 민주주의 사용자
인터페이스를 개선한다면
10:25
we might be able할 수 있는 to use it more.
209
613714
2127
우리는 민주주의를
더 활용할 수도 있습니다.
10:28
Of course코스, there's a lot of questions질문들
that you might have.
210
616452
3207
물론 여러분은 많은 의문점이
있을 수도 있습니다.
10:32
Well, how do you train기차 these avatars아바타?
211
620473
2161
이 아바타들은 어떻게 훈련시켜야 하지?
10:34
How do you keep the data데이터 secure안전한?
212
622658
1894
데이터는 어떻게 보안상태를 유지하지?
10:36
How do you keep the systems시스템
distributed분산 된 and auditable감사할?
213
624576
3248
이 시스템을 어떻게 분포하고
회계 감사되도록 유지하지?
10:39
How about my grandmother할머니,
who's누가 80 years연령 old늙은
214
627848
2062
그럼 80살에 인터넷도 쓰실 줄 모르는
10:41
and doesn't know how to use the internet인터넷?
215
629946
1960
우리 할머니는 어떡하지?
10:44
Trust믿음 me, I've heard들었던 them all.
216
632262
2221
절 믿으세요.
전 그 모든 질문을 들어봤습니다.
10:46
So when you think about an idea생각 like this,
you have to beware조심성있는 of pessimists비관 주의자
217
634507
4560
이러한 발상을 떠올릴 때는
비관주의자들을 주의해야 합니다.
10:51
because they are known알려진 to have
a problem문제 for every...마다 solution해결책.
218
639091
4319
그들은 모든 해결책에 대해
문제를 제기하기로 유명하기 때문이죠.
10:55
(Laughter웃음)
219
643434
1825
(웃음)
10:57
So I want to invite초대 you to think
about the bigger더 큰 ideas아이디어.
220
645283
3040
저는 여러분이 더 크게 생각해
보셨으면 합니다.
11:00
The questions질문들 I just showed보여 주었다 you
are little ideas아이디어
221
648347
3626
제가 방금 언급한 질문들은
작은 생각입니다.
11:03
because they are questions질문들
about how this would not work.
222
651997
2902
어떻게 하면 작동하지
않는가에 대한 질문이기 때문이죠.
11:07
The big ideas아이디어 are ideas아이디어 of:
223
655502
1981
큰 생각이란 이런 것 입니다.
11:09
What else그밖에 can you do with this
224
657507
1807
만약 이것이 정말 작동하게 된다면
11:11
if this would happen우연히 있다 to work?
225
659338
1889
이걸 가지고 어떤 것을
더 할 수 있을까?
11:13
And one of those ideas아이디어 is,
well, who writes씁니다 the laws법률?
226
661774
3445
또 다른 큰 생각은,
그럼 누가 법안을 작성하지?
11:17
In the beginning처음, we could have
the avatars아바타 that we already이미 have,
227
665854
4223
초기에 우리는 이미 가지고 있는
아바타를 통해
11:22
voting투표 on laws법률 that are written
by the senators상원 의원 or politicians정치인
228
670101
3497
상원 의원이나 정치인들이 작성한 법안에
11:25
that we already이미 have.
229
673622
1351
투표를 할 수 있었습니다.
11:27
But if this were to work,
230
675491
1714
그러나 만약 이 발상이 현실이 된다면,
11:29
you could write쓰다 an algorithm연산
231
677902
2350
우리는 법안을 작성할 수 있는
11:32
that could try to write쓰다 a law
232
680276
2150
알고리즘을 만들어
11:34
that would get a certain어떤
percentage백분율 of approval승인,
233
682450
2421
특정 비율의 승인을 얻은 뒤,
11:36
and you could reverse the process방법.
234
684895
1782
절차를 뒤집을 수도 있습니다.
11:38
Now, you might think that this idea생각
is ludicrous쑥스러운 and we should not do it,
235
686701
3512
지금 여러분은 이 발상이 터무니 없으며
시행해서는 안된다고 생각할 수도 있지만,
11:42
but you cannot~ 할 수 없다. deny부정하다 that it's an idea생각
that is only possible가능한
236
690237
2786
직접 민주주의와 소프트웨어 에이전트가
11:45
in a world세계 in which어느 direct곧장 democracy민주주의
and software소프트웨어 agents자치령 대표
237
693047
3020
성공적인 참여의 형태인
세상에서만 이 발상이
11:48
are a viable생존 가능한 form형태 of participation참여.
238
696091
2656
실현 가능하다는 것은
부정할 수 없을 것입니다.
11:52
So how do we start스타트 the revolution혁명?
239
700596
2753
그럼 어떻게 하면
혁명을 일으킬 수 있을까요?
11:56
We don't start스타트 this revolution혁명
with picket피켓 fences울타리 or protests시위
240
704238
3310
우리는 피켓 울타리를 치거나
시위를 하거나
11:59
or by demanding요구하는 our current흐름 politicians정치인
to be changed변경된 into robots로봇.
241
707572
4190
현재 정치인을 로봇으로 바꾸라고
혁명을 시작하진 않을 것입니다.
12:03
That's not going to work.
242
711786
1549
이런 건 통하지 않을 테니까요.
12:05
This is much more simple단순한,
243
713359
1612
대신 우리가 택하는
방식은 더 간단하고,
12:06
much slower느린
244
714995
1159
훨씬 느리고
12:08
and much more humble겸손한.
245
716178
1414
훨씬 더 변변찮습니다.
12:09
We start스타트 this revolution혁명 by creating창조
simple단순한 systems시스템 like this in grad졸업생 schools학교,
246
717616
4349
우리는 이 혁명을
대학원, 도서관, 비영리 단체와 같은
간단한 시스템을
만드는 것으로 시작합니다.
12:13
in libraries도서관, in nonprofits비영리 단체.
247
721989
2094
12:16
And we try to figure그림 out
all of those little questions질문들
248
724107
2654
이 발상을 실현 가능하게
만들고, 믿을 수 있도록
12:18
and those little problems문제들
249
726785
1221
우리가 꼭 알아야 할
12:20
that we're going to have to figure그림 out
to make this idea생각 something viable생존 가능한,
250
728030
3901
작은 질문과 문제들을
이해하도록 우리는 애써야 합니다.
12:23
to make this idea생각 something
that we can trust믿음.
251
731955
2351
12:26
And as we create몹시 떠들어 대다 those systems시스템 that have
a hundred people, a thousand people,
252
734330
3635
그리고 우리가 백 명, 천 명,
수십만 명의 사람들이
12:29
a hundred thousand people voting투표
in ways that are not politically정치상 binding제본,
253
737989
3770
정치적으로 구속력이 없는 방법으로
선거하는 시스템을 개발한다면,
12:33
we're going to develop나타나게 하다 trust믿음 in this idea생각,
254
741783
2018
이 발상에 대한 믿음을
쌓게 될 것입니다.
12:35
the world세계 is going to change변화,
255
743825
1519
그리고 세상은 바뀌고
12:37
and those that are as little
as my daughter is right now
256
745368
2875
현재 제 딸만큼 작은 것들이
12:40
are going to grow자라다 up.
257
748267
1337
성장하게 될 것입니다.
12:42
And by the time my daughter is my age나이,
258
750580
2369
그리고 저의 딸이
제 나이가 되어 있을 즘에
12:44
maybe this idea생각, that I know
today오늘 is very crazy미친,
259
752973
4436
지금은 굉장히 미친 소리로
들릴지 모를 이 발상이
12:49
might not be crazy미친 to her
and to her friends친구.
260
757433
4134
제 딸과 친구들에게는
미친 소리가 아닐지도 모르죠.
12:53
And at that point포인트,
261
761956
1837
그리고 이 관점에서
12:55
we will be at the end종료 of our history역사,
262
763817
2603
우리 역사의 마지막 시점에
남게 될 것입니다.
12:58
but they will be
at the beginning처음 of theirs그들의 것.
263
766444
2821
하지만 다음 세대의
첫 걸음이 될 것입니다.
13:01
Thank you.
264
769646
1183
감사합니다.
13:02
(Applause박수 갈채)
265
770853
3042
(박수)
Translated by MJ Shin
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee