ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

케빈 슬레이븐: 알고리즘은 어떻게 우리의 세계를 변화시키는가

Filmed:
4,199,898 views

슬레이븐은 우리가 알고리즘을 위해 디자인된 세상에 살고 있으며, 또한 우리는 점점 더 알고리즘에 의해 컨트롤 받고 있다고 주장한다. 그는 이 흥미있는 TEDGlobal 토크에서 그는 이러한 복잡한 컴퓨터 프로그램들이 어떻게 스파이 전략, 주식시가, 영화 스크립트, 그리고 건축양식을 결정하는지 말한다. 그는 또한 우리는 지금 우리 자신도 이해하지 못하는, 따라서 우리가 컨트롤 할 수없는 컴퓨터 코드를 쓰고 있다고 경고한다.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photograph사진
0
0
2000
이것은 마이클 나자라는 예술가의
00:17
by the artist예술가 Michael남자 이름 Najjar나 자르,
1
2000
2000
작품인데 그가 실제로 아르헨티나에
00:19
and it's real레알,
2
4000
2000
가서 찍은 사진이니까
00:21
in the sense감각 that he went갔다 there to Argentina아르헨티나
3
6000
2000
실제 사진이라고도
00:23
to take the photo사진.
4
8000
2000
말할 수 있죠.
00:25
But it's also또한 a fiction소설. There's a lot of work that went갔다 into it after that.
5
10000
3000
하지만, 이 사진은 많은 작업을 한 사진이기 때문에 가짜 사진이라고 말할 수도 있죠.
00:28
And what he's done끝난
6
13000
2000
이것은 사실 디지털 작업을 통해
00:30
is he's actually사실은 reshaped모양을 바꾼, digitally디지털로,
7
15000
2000
다우존스 지수가 변동한
00:32
all of the contours등고선 of the mountains산들
8
17000
2000
모양에 따라 산의 등고선을
00:34
to follow따르다 the vicissitudes변방 of the Dow다우 Jones존스 index색인.
9
19000
3000
조작한 사진이지요.
00:37
So what you see,
10
22000
2000
여기에 보이는 계곡의
00:39
that precipice절벽, that high높은 precipice절벽 with the valley골짜기,
11
24000
2000
높은 절벽은
00:41
is the 2008 financial재정적 인 crisis위기.
12
26000
2000
2008년 금융위기를 나타내죠.
00:43
The photo사진 was made만든
13
28000
2000
이 사진은 우리의 경제가 저 깊숙한
00:45
when we were deep깊은 in the valley골짜기 over there.
14
30000
2000
계곡안에 있었을때 찍은것이지요.
00:47
I don't know where we are now.
15
32000
2000
요즘 요즘 다우존스는 어떤지 모르겠습니다.
00:49
This is the Hang다루는 법 Seng index색인
16
34000
2000
이 사진은 홍콩
00:51
for Hong Kong.
17
36000
2000
항생지수인데
00:53
And similar비슷한 topography지형.
18
38000
2000
전체적 양상이 비슷하네요.
00:55
I wonder경이 why.
19
40000
2000
왜 그럴까요?
00:57
And this is art미술. This is metaphor은유.
20
42000
3000
이것은 예술인 동시에 메타포죠.
01:00
But I think the point포인트 is
21
45000
2000
그런데 이 메타포에는 알고리즘 자체가
01:02
that this is metaphor은유 with teeth,
22
47000
2000
실세계에 영향을 미친다는 의미가 있지요.
01:04
and it's with those teeth that I want to propose제안하다 today오늘
23
49000
3000
알고리즘은 실세계에 영향을 미치기 때문에 저는
01:07
that we rethink재고 a little bit비트
24
52000
2000
금융수학 같은 현대 수학 뿐만 아니라
01:09
about the role역할 of contemporary동시대의 math수학 --
25
54000
3000
일반적인 수학의 역할도
01:12
not just financial재정적 인 math수학, but math수학 in general일반.
26
57000
3000
재고할 것을 저는 여러분께 건의합니다.
01:15
That its transition전이
27
60000
2000
저는 또한 우리가 세계로 부터 추출하고
01:17
from being존재 something that we extract추출물 and derive파생하다 from the world세계
28
62000
3000
유도해 내는 데이터가 우리의 생활과
01:20
to something that actually사실은 starts시작하다 to shape모양 it --
29
65000
3000
우리를 둘러싸는 세계를
01:23
the world세계 around us and the world세계 inside내부 us.
30
68000
3000
실지로 만드는 전이 과정, 그리고
01:26
And it's specifically구체적으로 algorithms알고리즘,
31
71000
2000
컴퓨터가 결정을 내릴 때 사용되는 수학,
01:28
which어느 are basically원래 the math수학
32
73000
2000
특히 알고리즘에 대해
01:30
that computers컴퓨터들 use to decide결정하다 stuff물건.
33
75000
3000
말씀드리고자 합니다.
01:33
They acquire얻다 the sensibility감수성 of truth진실
34
78000
2000
컴퓨터의 알고리즘은 계속 반복적으로
01:35
because they repeat반복 over and over again,
35
80000
2000
사용되기 때문에 그들이 옳다는 인상을 주며
01:37
and they ossify골 형성하다 and calcify석회화하다,
36
82000
3000
시간이 흐름에 따라 그들에 대한
01:40
and they become지다 real레알.
37
85000
2000
신뢰도가 더 증가하고 결국에는 진실이 되죠.
01:42
And I was thinking생각 about this, of all places장소들,
38
87000
3000
저는 한 2년전에 대서양을 건너는 비행기 안에서
01:45
on a transatlantic미국인 flight비행 a couple of years연령 ago...전에,
39
90000
3000
바로 이런 생각을 하고있었는데
01:48
because I happened일어난 to be seated앉아있는
40
93000
2000
마침 제 옆에 제 나이 정도되는
01:50
next다음 것 to a Hungarian헝가리 인 physicist물리학 자 about my age나이
41
95000
2000
헝가리인 물리학자가 앉았었지요.
01:52
and we were talking말하는
42
97000
2000
우리는 냉전 당시 헝가리에서
01:54
about what life was like during...동안 the Cold감기 War전쟁
43
99000
2000
물리학자로 일하는게
01:56
for physicists물리학 자들 in Hungary헝가리.
44
101000
2000
어땠는가 하는 대화를 나눴는데
01:58
And I said, "So what were you doing?"
45
103000
2000
그사람에게 무슨일을 했냐고 물었더니
02:00
And he said, "Well we were mostly대개 breaking파괴 stealth몰래 하기."
46
105000
2000
주로 스텔스를 잡는 일을 했다고 하더군요.
02:02
And I said, "That's a good job. That's interesting재미있는.
47
107000
2000
그래서 저는 흥미있는 직업같다고 말했죠.
02:04
How does that work?"
48
109000
2000
그런데 그건 어떤 기술인가요?
02:06
And to understand알다 that,
49
111000
2000
그 기술을 이해하려면
02:08
you have to understand알다 a little bit비트 about how stealth몰래 하기 works공장.
50
113000
3000
스텔스의 작동원리를 좀 알아야 하죠.
02:11
And so -- this is an over-simplification지나친 단순화 --
51
116000
3000
아주 간단히 말하자면 레이더 신호가
02:14
but basically원래, it's not like
52
119000
2000
하늘에 뜬 156톤의 철 덩어리를
02:16
you can just pass패스 a radar레이다 signal신호
53
121000
2000
뚫고 나가거나
02:18
right through...을 통하여 156 tons of steel강철 in the sky하늘.
54
123000
3000
또는 그냥 사라지게
02:21
It's not just going to disappear사라지다.
55
126000
3000
만들 수는 없죠.
02:24
But if you can take this big, massive거대한 thing,
56
129000
3000
그렇지만 이렇게 큰 비행기를 수만개의
02:27
and you could turn회전 it into
57
132000
3000
작은 조각으로 쪼갤 수 있다면
02:30
a million백만 little things --
58
135000
2000
- 예를들면 새 떼 같은 것으로요 -
02:32
something like a flock대군 of birds조류 --
59
137000
2000
이런 비행기를 추적하는
02:34
well then the radar레이다 that's looking for that
60
139000
2000
레이다는 날라다니는
02:36
has to be able할 수 있는 to see
61
141000
2000
모든 새 떼들을
02:38
every...마다 flock대군 of birds조류 in the sky하늘.
62
143000
2000
다 볼 수 있어야 겠지요.
02:40
And if you're a radar레이다, that's a really bad나쁜 job.
63
145000
4000
레이더로 그런 일을 하는것은 참 어렵죠.
02:44
And he said, "Yeah." He said, "But that's if you're a radar레이다.
64
149000
3000
그리고 그 헝가리 물리학자가 말했죠,
02:47
So we didn't use a radar레이다;
65
152000
2000
"그래서 우리는 레이더를 만들지 않고
02:49
we built세워짐 a black검은 box상자 that was looking for electrical전기 같은 signals신호들,
66
154000
3000
전기통신이나 전기신호를 감지하는
02:52
electronic전자 communication통신.
67
157000
3000
블랙박스를 만들었죠. 그리고는,
02:55
And whenever할때는 언제나 we saw a flock대군 of birds조류 that had electronic전자 communication통신,
68
160000
3000
새 떼들이 전기통신을 할때 마다 미국인들과
02:58
we thought, 'Probably'아마 has something to do with the Americans미국인.'"
69
163000
3000
무슨 연관이 있을지 모른다고 생각했죠".
03:01
And I said, "Yeah.
70
166000
2000
그래서 제가 그랬죠.
03:03
That's good.
71
168000
2000
"좋군요.
03:05
So you've effectively효과적으로 negated무효의
72
170000
2000
당신네들이 60년간의 항공학
03:07
60 years연령 of aeronautic항공학의 research연구.
73
172000
2000
연구를 무효화한 셈이네요.
03:09
What's your act행위 two?
74
174000
2000
그럼 당신의 제2장은 뭐죠?
03:11
What do you do when you grow자라다 up?"
75
176000
2000
그럼 지금은 무슨일을 하세요?"
03:13
And he said,
76
178000
2000
그가 이렇게 답했죠,
03:15
"Well, financial재정적 인 services서비스."
77
180000
2000
"금융서비스에서 일해요".
03:17
And I said, "Oh."
78
182000
2000
근데 그 당시에 그런 이야기들이
03:19
Because those had been in the news뉴스 lately최근.
79
184000
3000
뉴스에 보도되고 있었기 때문에 제가 물었죠.
03:22
And I said, "How does that work?"
80
187000
2000
"그게 뭐하는거죠?"
03:24
And he said, "Well there's 2,000 physicists물리학 자들 on Wall Street거리 now,
81
189000
2000
그가 말하길, "월스트리트엔 저같은
03:26
and I'm one of them."
82
191000
2000
물리학자들이 약 2000명 일하고 있죠".
03:28
And I said, "What's the black검은 box상자 for Wall Street거리?"
83
193000
3000
제가 물었죠. "월스트리트의 블랙박스가 뭡니까?"
03:31
And he said, "It's funny이상한 you ask청하다 that,
84
196000
2000
그가 말하길, "말그대로 블랙박스예요.
03:33
because it's actually사실은 called전화 한 black검은 box상자 trading거래.
85
198000
3000
사실 블랙박스 트레이딩이라고 말하죠.
03:36
And it's also또한 sometimes때때로 called전화 한 algo알 고 trading거래,
86
201000
2000
어떤 사람은 알고 트레이딩, 즉
03:38
algorithmic알고리즘의 trading거래."
87
203000
3000
알고리즈믹 트레이딩이라고 하죠".
03:41
And algorithmic알고리즘의 trading거래 evolved진화 된 in part부품
88
206000
3000
알고리즈믹 트레이딩이 발달되게 된 이유의 하나는
03:44
because institutional제도적 traders상인 have the same같은 problems문제들
89
209000
3000
월스트리트의 기관투자자들이 미국 공군이 가졌던
03:47
that the United유나이티드 States Air공기 Force had,
90
212000
3000
똑 같은 문제를 가지고 있기 때문이었는데 -
03:50
which어느 is that they're moving움직이는 these positions직책 --
91
215000
3000
그들은, 예를들면 프록터 앤 갬블
03:53
whether인지 어떤지 it's Proctor대리인 & Gamble갬블 or Accenture액센추어, whatever도대체 무엇이 --
92
218000
2000
또는 액센쳐 같은,
03:55
they're moving움직이는 a million백만 shares주식 of something
93
220000
2000
회사들의 수많은
03:57
through...을 통하여 the market시장.
94
222000
2000
주식을 사고 팔지요.
03:59
And if they do that all at once일단,
95
224000
2000
그런데 이들이 주식거래를 한꺼번에 한다면
04:01
it's like playing연주하다 poker포커 and going all in right away.
96
226000
2000
포커를 할때 올인하는거나 마찬가지죠.
04:03
You just tip your hand.
97
228000
2000
있는 돈을 한꺼번에 다 거는 거니까요.
04:05
And so they have to find a way --
98
230000
2000
그래서 그들은 큰 금액을
04:07
and they use algorithms알고리즘 to do this --
99
232000
2000
한꺼번에 거래하지 않고,
04:09
to break단절 up that big thing
100
234000
2000
많은 수의 적은 금액으로 나눠서 거래를 하는데
04:11
into a million백만 little transactions업무.
101
236000
2000
그럴때 알고리즘을 사용하죠.
04:13
And the magic마법 and the horror공포 of that
102
238000
2000
그런데 한가지 흥미있는 동시에 두려운 사실은
04:15
is that the same같은 math수학
103
240000
2000
큰 금액의 거래를 많은 여러개의 작은 거래로 갈를때
04:17
that you use to break단절 up the big thing
104
242000
2000
사용한 똑같은 수학방식을 사용하면
04:19
into a million백만 little things
105
244000
2000
수많은 작은 금액의 거래들을 원래의
04:21
can be used to find a million백만 little things
106
246000
2000
큰 금액으로 다시 조립시켜서
04:23
and sew꿰매다 them back together함께
107
248000
2000
주식 시장에서 실지로 무슨일이 벌어지고 있는지
04:25
and figure그림 out what's actually사실은 happening사고 in the market시장.
108
250000
2000
알아낼 수 있다는 것입니다.
04:27
So if you need to have some image영상
109
252000
2000
즉, 지금 주식시장이 어떻게 돌아가는지 이해하려면
04:29
of what's happening사고 in the stock스톡 market시장 right now,
110
254000
3000
주식거래를 숨기는 목적의 알고리즘이 있는가 하면,
04:32
what you can picture그림 is a bunch다발 of algorithms알고리즘
111
257000
2000
그와는 정반대로 숨겨진 거래들을 찾아내서
04:34
that are basically원래 programmed프로그래밍 된 to hide숨는 장소,
112
259000
3000
적절한 조치를 취하는 것을 목적으로 프로그램된
04:37
and a bunch다발 of algorithms알고리즘 that are programmed프로그래밍 된 to go find them and act행위.
113
262000
3000
여러개의 알고리즘이 있다는 사실을 알아야 합니다.
04:40
And all of that's great, and it's fine.
114
265000
3000
자, 여기까지는 뭐 큰 문제가 없죠.
04:43
And that's 70 percent퍼센트
115
268000
2000
그렇지만, 이런 기관투자자들의
04:45
of the United유나이티드 States stock스톡 market시장,
116
270000
2000
거래액이 총 증시거래액의
04:47
70 percent퍼센트 of the operating운영중인 system체계
117
272000
2000
70%에 달하는데
04:49
formerly전에 known알려진 as your pension연금,
118
274000
3000
이게 다 여러분의
04:52
your mortgage저당.
119
277000
3000
연금이고 모게지죠.
04:55
And what could go wrong잘못된?
120
280000
2000
이것처럼 안전한게 있겠어요?
04:57
What could go wrong잘못된
121
282000
2000
그런데 1년 전에 전 증시 거래액의
04:59
is that a year ago...전에,
122
284000
2000
9%가 5분 동안에 갑자기
05:01
nine아홉 percent퍼센트 of the entire완전한 market시장 just disappears사라지다 in five다섯 minutes의사록,
123
286000
3000
사라지는 사태가 벌어졌었는데
05:04
and they called전화 한 it the Flash플래시 Crash추락 of 2:45.
124
289000
3000
그들은 그 사건을 '2:45 플래시 크래쉬'라고 부르죠.
05:07
All of a sudden갑자기, nine아홉 percent퍼센트 just goes간다 away,
125
292000
3000
그런 사태가 벌어질 만한 주식거래를
05:10
and nobody아무도 to this day
126
295000
2000
했던 사람도 없고 요청한 사람도 없었는데
05:12
can even agree동의하다 on what happened일어난
127
297000
2000
왜 그런 사태가 발생했었는지 아직까지도 전문가들 끼리
05:14
because nobody아무도 ordered주문한 it, nobody아무도 asked물었다 for it.
128
299000
3000
그 사건의 발생 원인에 대해 동의조차 못하고 있죠.
05:17
Nobody아무도 had any control제어 over what was actually사실은 happening사고.
129
302000
3000
실제로 벌어지는 상황을 아무도 컨트롤 할 수 없었죠.
05:20
All they had
130
305000
2000
기관투자자들이 가졌던 컨트롤이라고는
05:22
was just a monitor감시 장치 in front of them
131
307000
2000
모니터에 표시되는 숫자들과
05:24
that had the numbers번호 on it
132
309000
2000
'스톱'이라는 글이 적힌
05:26
and just a red빨간 button단추
133
311000
2000
빨간 버튼 밖에
05:28
that said, "Stop."
134
313000
2000
없었으니까요.
05:30
And that's the thing,
135
315000
2000
그러니까 우리는 우리가
05:32
is that we're writing쓰기 things,
136
317000
2000
더 이상 읽을 수 없게
05:34
we're writing쓰기 these things that we can no longer더 길게 read독서.
137
319000
3000
된 것 들을 쓰고 있었다는 거죠.
05:37
And we've우리는 rendered렌더링 된 something
138
322000
2000
우리가 그 무엇인가를 더 이상
05:39
illegible읽기 어려운,
139
324000
2000
읽을 수 없게 만들었다는 것이죠.
05:41
and we've우리는 lost잃어버린 the sense감각
140
326000
3000
그래서 우리는 우리가 만든
05:44
of what's actually사실은 happening사고
141
329000
2000
이 세계에서 실지로 무슨일이 발생하고 있는지를
05:46
in this world세계 that we've우리는 made만든.
142
331000
2000
모르게 됐지요.
05:48
And we're starting출발 to make our way.
143
333000
2000
그러나 인젠 형편이 나아지기 시작했죠.
05:50
There's a company회사 in Boston보스턴 called전화 한 Nanex나노 넥스,
144
335000
3000
보스턴에 나넥스라는 회사가 있는데,
05:53
and they use math수학 and magic마법
145
338000
2000
그 회사는 수학과 제가 모르는 어떤 마술을 사용해서
05:55
and I don't know what,
146
340000
2000
증권시장의 모든 데이터를 읽고
05:57
and they reach범위 into all the market시장 data데이터
147
342000
2000
항상 그런것은 아니지만
05:59
and they find, actually사실은 sometimes때때로, some of these algorithms알고리즘.
148
344000
3000
가끔 이런 알고리즘들의 일부를 찾아내지요.
06:02
And when they find them they pull손잡이 them out
149
347000
3000
그들은 그런 알고리즘을 하나 찾으면
06:05
and they pin them to the wall like butterflies나비.
150
350000
3000
그걸 종이에 적어서 나비처럼 벽에 붙이지요.
06:08
And they do what we've우리는 always done끝난
151
353000
2000
우리는 이해하지 못하는 엄청난 량의
06:10
when confronted마주 친 with huge거대한 amounts금액 of data데이터 that we don't understand알다 --
152
355000
3000
데이터를 이해해야 할때는 언제나
06:13
which어느 is that they give them a name이름
153
358000
2000
그래왔듯이 이런식으로 그런것에
06:15
and a story이야기.
154
360000
2000
이름과 스토리를 붙이죠.
06:17
So this is one that they found녹이다,
155
362000
2000
그들이 찾아낸 것들은 다음과 같죠.
06:19
they called전화 한 the Knife,
156
364000
4000
이것은 나이프,
06:23
the Carnival사육제,
157
368000
2000
카니발,
06:25
the Boston보스턴 Shuffler실업자,
158
370000
4000
보스턴 셔플러,
06:29
Twilight어스름.
159
374000
2000
트와일라이트.
06:31
And the gag개그 is
160
376000
2000
그런데 웃기는건 일단 이런 알고리즘이
06:33
that, of course코스, these aren't있지 않다. just running달리는 through...을 통하여 the market시장.
161
378000
3000
있는가를 알아내는 방법을 터득하면
06:36
You can find these kinds종류 of things wherever대체 어디에 you look,
162
381000
3000
증시 뿐만아니라 모든 곳에서 알고리즘이
06:39
once일단 you learn배우다 how to look for them.
163
384000
2000
사용되고 있다는걸 알 수 있다는 거죠.
06:41
You can find it here: this book도서 about flies파리
164
386000
3000
이 책도 그런 예의 하나죠:
06:44
that you may할 수있다 have been looking at on Amazon아마존.
165
389000
2000
이건 아마존에서 팔았던 건데
06:46
You may할 수있다 have noticed알아 차 렸던 it
166
391000
2000
시작가가
06:48
when its price가격 started시작한 at 1.7 million백만 dollars불화.
167
393000
2000
170만 달러였지요.
06:50
It's out of print인쇄 -- still ...
168
395000
2000
절판이었는데도 말이예요.
06:52
(Laughter웃음)
169
397000
2000
(웃음)
06:54
If you had bought샀다 it at 1.7, it would have been a bargain싸게 사는 물건.
170
399000
3000
그런데 만약 170 만달러에 샀다면, 잘 투자한거죠.
06:57
A few조금 hours시간 later후에, it had gone지나간 up
171
402000
2000
왜냐하면 불과 몇 시간 뒤에,
06:59
to 23.6 million백만 dollars불화,
172
404000
2000
2천360만 달러로 가격이 뛰었으니까요.
07:01
plus...을 더한 shipping배송 and handling손질.
173
406000
2000
운송비와 포장비는 별도였죠.
07:03
And the question문제 is:
174
408000
2000
그런데, 아무도 사거나 팔지 않았는데
07:05
Nobody아무도 was buying구매 or selling판매 anything; what was happening사고?
175
410000
2000
어떻게 그런일이 생겼을까요?
07:07
And you see this behavior행동 on Amazon아마존
176
412000
2000
즉, 월스트리트와 똑같은 현상을
07:09
as surely확실히 as you see it on Wall Street거리.
177
414000
2000
아마존에서도 볼 수 있다는 말이죠.
07:11
And when you see this kind종류 of behavior행동,
178
416000
2000
이런 사건이 생긴다는 것은
07:13
what you see is the evidence증거
179
418000
2000
알고리즘들이 서로 충돌하고 있다는 것을
07:15
of algorithms알고리즘 in conflict충돌,
180
420000
2000
증명해 주는데 간단히 말하면
07:17
algorithms알고리즘 locked잠긴 in loops루프 with each마다 other,
181
422000
2000
인간의 아무런 개입이나 감독이 없이
07:19
without없이 any human인간의 oversight감시,
182
424000
2000
알고리즘들이 서로 맞물고
07:21
without없이 any adult성인 supervision감독
183
426000
3000
루프에서 맴돌다가
07:24
to say, "Actually사실은, 1.7 million백만 is plenty많은."
184
429000
3000
"흠..170만 달러 정도면 됐어" 한거죠.
07:27
(Laughter웃음)
185
432000
3000
(웃음)
07:30
And as with Amazon아마존, so it is with Netflix넷플릭스.
186
435000
3000
네트플릭스도 아마존과 같은 형편에 있죠.
07:33
And so Netflix넷플릭스 has gone지나간 through...을 통하여
187
438000
2000
그래서 네트플릭스는 지난 수년간
07:35
several수개 different다른 algorithms알고리즘 over the years연령.
188
440000
2000
여러가지 다른 알고리즘을 써봤지요.
07:37
They started시작한 with Cinematch시네마틱, and they've그들은 tried시도한 a bunch다발 of others다른 사람 --
189
442000
3000
처음에는 Cinematch를 사용하다가
07:40
there's Dinosaur공룡 Planet행성; there's Gravity중량.
190
445000
2000
그후에 Dinasaur Planet, 그리고 Gravity를 사용했는데
07:42
They're using~을 사용하여 Pragmatic바쁜 Chaos혼돈 now.
191
447000
2000
지금은 Pragmatic Chaos를 사용하죠.
07:44
Pragmatic바쁜 Chaos혼돈 is, like all of Netflix넷플릭스 algorithms알고리즘,
192
449000
2000
Pragmatic Chaos도 네트플릭스가 사용했던
07:46
trying견딜 수 없는 to do the same같은 thing.
193
451000
2000
다른 알고리즘과 똑같은 일을 하려고 하지요.
07:48
It's trying견딜 수 없는 to get a grasp파악 on you,
194
453000
2000
이 알고리즘은 고객의 마음안으로
07:50
on the firmware펌웨어 inside내부 the human인간의 skull두개골,
195
455000
2000
파고 들어가서 어떤것을 좋아하는가를
07:52
so that it can recommend권하다 what movie영화
196
457000
2000
파악한 후에 다음번에 어떤 영화를
07:54
you might want to watch next다음 것 --
197
459000
2000
보고 싶어할지를 추측하려고 하는데
07:56
which어느 is a very, very difficult어려운 problem문제.
198
461000
3000
이건 엄청나게 어려운 문제지요.
07:59
But the difficulty어려움 of the problem문제
199
464000
2000
이것이 매우 힘든 일이고
08:01
and the fact that we don't really quite아주 have it down,
200
466000
3000
또 우리들 자체가 사실 이런 알고리즘을 아직 정확히
08:04
it doesn't take away
201
469000
2000
이해하지 못하지만 Pragmatic Chaos는
08:06
from the effects효과 Pragmatic바쁜 Chaos혼돈 has.
202
471000
2000
그래도 우리에게 영향을 미치고 있지요.
08:08
Pragmatic바쁜 Chaos혼돈, like all Netflix넷플릭스 algorithms알고리즘,
203
473000
3000
과거의 모든 네트플릭스 알고리즘들이 그랬듯이,
08:11
determines결정하다, in the end종료,
204
476000
2000
우리는 Pragmatic Chaos가
08:13
60 percent퍼센트
205
478000
2000
추천하는 영화의 약
08:15
of what movies영화 산업 end종료 up being존재 rented임대 된.
206
480000
2000
60%를 실제로 빌려서 보니까요.
08:17
So one piece조각 of code암호
207
482000
2000
이말은 즉, 여러분에 대해 지극히 단편적인
08:19
with one idea생각 about you
208
484000
3000
아이디어만 가지고 있는 컴퓨터 코드가
08:22
is responsible책임있는 for 60 percent퍼센트 of those movies영화 산업.
209
487000
3000
여러분이 선택하는 영화의 60%를 결정한다는 거죠.
08:25
But what if you could rate those movies영화 산업
210
490000
2000
그런데 영화를 만들기도 전에 그 영화에 대한
08:27
before they get made만든?
211
492000
2000
평가를 내릴 수 있다면 어떨까요?
08:29
Wouldn't하지 않을 것이다. that be handy능숙한?
212
494000
2000
그럼 아주 유용하지 않을까요?
08:31
Well, a few조금 data데이터 scientists과학자들 from the U.K. are in Hollywood할리우드,
213
496000
3000
영국 데이터 과학자들이 몇명이
08:34
and they have "story이야기 algorithms알고리즘" --
214
499000
2000
홀리우드에 이파고긱스라는회사를 차리고
08:36
a company회사 called전화 한 Epagogix에 파고 픽스.
215
501000
2000
스토리 알고리즘을 만들었죠.
08:38
And you can run운영 your script스크립트 through...을 통하여 there,
216
503000
3000
그 알고리즘은
08:41
and they can tell you, quantifiably양적으로,
217
506000
2000
영화 스크립트를 읽고
08:43
that that's a 30 million백만 dollar달러 movie영화
218
508000
2000
그게 3천만불 짜리 인지
08:45
or a 200 million백만 dollar달러 movie영화.
219
510000
2000
2억불짜리 영화인지 말해 주죠.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
이건 구글같이 정보를 찾는것도 아니고,
08:49
This isn't information정보.
221
514000
2000
금융상태를 파악하는 것도 아니고,
08:51
These aren't있지 않다. financial재정적 인 stats통계; this is culture문화.
222
516000
2000
문화를 판단한다는 이야기죠.
08:53
And what you see here,
223
518000
2000
여러분이 지금 보시는 이 그림은,
08:55
or what you don't really see normally정상적으로,
224
520000
2000
사실 여러분이 흔히 보는 그림은 아니지만,
08:57
is that these are the physics물리학 of culture문화.
225
522000
4000
문명의 기본 원칙을 보여주는 그림이죠.
09:01
And if these algorithms알고리즘,
226
526000
2000
그런데 이런 알고리즘들이
09:03
like the algorithms알고리즘 on Wall Street거리,
227
528000
2000
월스트리트에 있는 알고리즘처럼
09:05
just crashed추락 한 one day and went갔다 awry틀려서,
228
530000
3000
어느날 갑자기 크래쉬 한다면
09:08
how would we know?
229
533000
2000
그걸 우리가 어떻게 알까요?
09:10
What would it look like?
230
535000
2000
또 어떤 일이 생길까요?
09:12
And they're in your house. They're in your house.
231
537000
3000
여러분들 집에 있는 이런 청소기의 알고리즘들은
09:15
These are two algorithms알고리즘 competing경쟁하는 for your living생활 room.
232
540000
2000
거실을 차지하려고 서로 경쟁하고 있죠.
09:17
These are two different다른 cleaning청소 robots로봇
233
542000
2000
그런데 이들은 깨끗하다는
09:19
that have very different다른 ideas아이디어 about what clean깨끗한 means방법.
234
544000
3000
것을 판단하는 기준이 서로 다르죠.
09:22
And you can see it
235
547000
2000
청소기의 속도를 줄이고
09:24
if you slow느린 it down and attach붙이다 lights to them,
236
549000
3000
라이트를 달면 그 차이를 볼 수 있죠.
09:27
and they're sort종류 of like secret비밀 architects건축가 in your bedroom침실.
237
552000
3000
이들은 여러분의 침실에 있는
09:30
And the idea생각 that architecture건축물 itself그 자체
238
555000
3000
일종의 숨어있는 건축가와 비슷하다고 볼 수 있겠는데,
09:33
is somehow어쩐지 subject제목 to algorithmic알고리즘의 optimization최적화
239
558000
2000
사실은 건축 자체가 산술연산을
09:35
is not far-fetched멀리 가져온.
240
560000
2000
최적화 한 결과라고 해도 과언은 아니지요.
09:37
It's super-real슈퍼 리얼 and it's happening사고 around you.
241
562000
3000
이건 우리 주위에서 실제로 일어나고 있는 엄연한 사실이죠.
09:40
You feel it most가장
242
565000
2000
우리가 신형 '목적층선택 엘리베이터'의
09:42
when you're in a sealed봉인 된 metal금속 box상자,
243
567000
2000
철판 박스 안에
09:44
a new-style새로운 스타일 elevator엘리베이터;
244
569000
2000
같혀 있을때는
09:46
they're called전화 한 destination-control목적지 제어 elevators엘리베이터.
245
571000
2000
그런 생각이 더 나지요.
09:48
These are the ones그들 where you have to press프레스 what floor바닥 you're going to go to
246
573000
3000
타기 전에 승객이 밖에서
09:51
before you get in the elevator엘리베이터.
247
576000
2000
미리 목적층을 선택하는 이런 신형 엘리베이터는
09:53
And it uses용도 what's called전화 한 a bin-packing빈 포장 algorithm연산.
248
578000
2000
'빈 패킹'이라는 알고리즘을 사용하죠.
09:55
So none없음 of this mishegas불행 가스
249
580000
2000
승객들이 자기가 타고 싶은 승강기를
09:57
of letting시키는 everybody각자 모두 go into whatever도대체 무엇이 car they want.
250
582000
2000
마음대로 고르는 것은 옛말이죠.
09:59
Everybody각자 모두 who wants to go to the 10th floor바닥 goes간다 into car two,
251
584000
2000
10층으로 갈 사람들은 2번 승강기로,
10:01
and everybody각자 모두 who wants to go to the third제삼 floor바닥 goes간다 into car five다섯.
252
586000
3000
3층에 갈 사람들은 5번 승강기로...이런 식이죠.
10:04
And the problem문제 with that
253
589000
2000
그런데 문제는
10:06
is that people freak변덕 out.
254
591000
2000
사람들이 당황해서
10:08
People panic공포.
255
593000
2000
어쩔지 모른다는 것이죠.
10:10
And you see why. You see why.
256
595000
2000
그런데 당황해 하는게 당연하죠.
10:12
It's because the elevator엘리베이터
257
597000
2000
그 엘레베이터에는
10:14
is missing있어야 할 곳에 없는 some important중대한 instrumentation수단, like the buttons버튼.
258
599000
3000
층수가 적힌 버튼 같은게 없으니까요.
10:17
(Laughter웃음)
259
602000
2000
(웃음)
10:19
Like the things that people use.
260
604000
2000
일반 엘레베이터와는 아주 다르죠.
10:21
All it has
261
606000
2000
그저 윗쪽이나 아랫쪽으로
10:23
is just the number번호 that moves움직임 up or down
262
608000
3000
올라갔다 내려갔다 하는 번호와
10:26
and that red빨간 button단추 that says말한다, "Stop."
263
611000
3000
'스톱' 이라고 적힌 빨간 버튼만 있죠.
10:29
And this is what we're designing설계 for.
264
614000
3000
요즘 우리가 디자인하는 것들이 다들 이런식이죠.
10:32
We're designing설계
265
617000
2000
우리는 이런식의 인간기계
10:34
for this machine기계 dialect방언.
266
619000
2000
대화를 디자인 하고 있죠.
10:36
And how far멀리 can you take that? How far멀리 can you take it?
267
621000
3000
우리는 이런식으로 얼마나 더 나갈 수 있을까요?
10:39
You can take it really, really far멀리.
268
624000
2000
아마 거의 무한정 갈께에요.
10:41
So let me take it back to Wall Street거리.
269
626000
3000
월스트리트 이야기로 다시 돌아가죠.
10:45
Because the algorithms알고리즘 of Wall Street거리
270
630000
2000
월스트리트의 알고리즘에게
10:47
are dependent매달린 on one quality품질 above위에 all else그밖에,
271
632000
3000
그 무엇보다도 더
10:50
which어느 is speed속도.
272
635000
2000
중요한 것은 속도죠.
10:52
And they operate조작하다 on milliseconds밀리 초 and microseconds마이크로 초.
273
637000
3000
그들은 밀리세컨드와 마이크로세컨드를 따지죠.
10:55
And just to give you a sense감각 of what microseconds마이크로 초 are,
274
640000
2000
마우스를 한번 클릭하는데
10:57
it takes you 500,000 microseconds마이크로 초
275
642000
2000
걸리는 시간은
10:59
just to click딸깍 하는 소리 a mouse.
276
644000
2000
50만 마이크로세컨드죠.
11:01
But if you're a Wall Street거리 algorithm연산
277
646000
2000
월스트리트 알고리즘의 입장에서 볼때는
11:03
and you're five다섯 microseconds마이크로 초 behind뒤에,
278
648000
2000
단 5 마이크로세컨드만 뒤져도
11:05
you're a loser실패자.
279
650000
2000
패자가 되는 것이죠.
11:07
So if you were an algorithm연산,
280
652000
2000
여러분이 알고리즘이라면 아마도
11:09
you'd당신은 look for an architect건축가 like the one that I met만난 in Frankfurt프랑크푸르트
281
654000
3000
제가 프랑크프루트에서 만난 건축가 같은 사람들을 찾겠지요.
11:12
who was hollowing비어있는 out a skyscraper마천루 --
282
657000
2000
그 건축가는 알고리즘이
11:14
throwing던지는 out all the furniture가구, all the infrastructure하부 구조 for human인간의 use,
283
659000
3000
인터넷 케이블에 좀 더 가깝게 자리잡을 수 있게
11:17
and just running달리는 steel강철 on the floors바닥
284
662000
3000
다수의 컴퓨터 서버들을 들어갈 장소를 만들려고
11:20
to get ready준비된 for the stacks스택 of servers서버 to go in --
285
665000
3000
콘크리트 바닥만 남기고
11:23
all so an algorithm연산
286
668000
2000
사람들에게 필요한 모든 기반 설비와
11:25
could get close닫기 to the Internet인터넷.
287
670000
3000
가구들을 전부 다 뜯어내는 일을 했지요.
11:28
And you think of the Internet인터넷 as this kind종류 of distributed분산 된 system체계.
288
673000
3000
인터넷은 일종의 분산 시스템이지만 그것은
11:31
And of course코스, it is, but it's distributed분산 된 from places장소들.
289
676000
3000
일정한 장소들로 부터 분산되는 시스템이죠.
11:34
In New새로운 York요크, this is where it's distributed분산 된 from:
290
679000
2000
뉴욕의 인터넷은
11:36
the Carrier담체 Hotel호텔
291
681000
2000
허드슨 스트리트에 있는
11:38
located위치한 on Hudson허드슨 강 Street거리.
292
683000
2000
캐리어 호텔에서 부터 분배되지요.
11:40
And this is really where the wires전선 come right up into the city시티.
293
685000
3000
뉴욕시로 오는 모든 인터넷 케이블이 실제로 들어오는 곳이죠
11:43
And the reality현실 is that the further더욱이 away you are from that,
294
688000
4000
그래서 그곳에서 멀면 멀수록 모든 거래가
11:47
you're a few조금 microseconds마이크로 초 behind뒤에 every...마다 time.
295
692000
2000
몇 마이크로세컨드씩 늦어지지요.
11:49
These guys down on Wall Street거리,
296
694000
2000
마코폴로나, 치로키 네이션 같은
11:51
Marco마르코 Polo폴로 and Cherokee체로키 Nation민족,
297
696000
2000
월스트리트 부근의 빌딩에 있는 사람들은
11:53
they're eight여덟 microseconds마이크로 초
298
698000
2000
캐리어 호텔 부근에 빌딩 내부를 허물어내고
11:55
behind뒤에 all these guys
299
700000
2000
새로 인터넷 장비를 까는
11:57
going into the empty buildings건물 being존재 hollowed비어있는 out
300
702000
4000
사람들보다 8 마이크로세컨드
12:01
up around the Carrier담체 Hotel호텔.
301
706000
2000
더 늦게 되죠.
12:03
And that's going to keep happening사고.
302
708000
3000
이런 일은 앞으로도 계속 생길겁니다.
12:06
We're going to keep hollowing비어있는 them out,
303
711000
2000
그렇지 않고는 증시에서 거래를 할 때
12:08
because you, inch인치 for inch인치
304
713000
3000
보스톤 셔플러처럼
12:11
and pound파운드 for pound파운드 and dollar달러 for dollar달러,
305
716000
3000
마지막 한방울 까지의
12:14
none없음 of you could squeeze압착 revenue수익 out of that space공간
306
719000
3000
이익을
12:17
like the Boston보스턴 Shuffler실업자 could.
307
722000
3000
짜낼 수 없기 때문이죠.
12:20
But if you zoom out,
308
725000
2000
이제 줌아웃을 해보지요.
12:22
if you zoom out,
309
727000
2000
줌아웃을 해보면,
12:24
you would see an 825-mile-마일 trench도랑
310
729000
4000
뉴욕시와 시카고를 연결하기 위해
12:28
between중에서 New새로운 York요크 City시티 and Chicago시카고
311
733000
2000
스프레드 네트워크라는 회사가
12:30
that's been built세워짐 over the last few조금 years연령
312
735000
2000
지난 몇년에 걸쳐 공사하고 있는
12:32
by a company회사 called전화 한 Spread전파 Networks네트워크.
313
737000
3000
825 마일 길이의 기반시설 공사 전경을 볼 수 있지요.
12:35
This is a fiber섬유 optic cable케이블
314
740000
2000
이것은 카니발이나 나이프 알고리즘 전용으로
12:37
that was laid놓은 between중에서 those two cities도시들
315
742000
2000
두 도시간에 깔린 광케이블 루트인데
12:39
to just be able할 수 있는 to traffic교통 one signal신호
316
744000
3000
마우스를 클릭하는 것보다
12:42
37 times타임스 faster더 빠른 than you can click딸깍 하는 소리 a mouse --
317
747000
3000
37배 더 빠른 속도로
12:45
just for these algorithms알고리즘,
318
750000
3000
신호를 전송하는
12:48
just for the Carnival사육제 and the Knife.
319
753000
3000
단 한가지의 목적을 위해 건설된 것이죠.
12:51
And when you think about this,
320
756000
2000
우리는 아무도 알지 못할
12:53
that we're running달리는 through...을 통하여 the United유나이티드 States
321
758000
2000
통신 프레임워크를 구축해서
12:55
with dynamite다이너마이트 and rock saws
322
760000
3000
주식거래를 3 마이크로세컨드
12:58
so that an algorithm연산 can close닫기 the deal거래
323
763000
2000
더 빨리 체결할 수 있게
13:00
three microseconds마이크로 초 faster더 빠른,
324
765000
3000
미국의 곳곳을
13:03
all for a communications연락 framework뼈대
325
768000
2000
다이나마이트와 암석톱으로
13:05
that no human인간의 will ever know,
326
770000
4000
폭발시키고 자르고하는데
13:09
that's a kind종류 of manifest명백한 destiny운명;
327
774000
3000
이것은 서부로 팽창하자는 우리의 '명백한 운명'이겠고,
13:12
and we'll always look for a new새로운 frontier국경 지방.
328
777000
3000
우리는 또한 앞으로도 계속 미개척지를 찾아 다니겠지요.
13:15
Unfortunately운수 나쁘게, we have our work cut절단 out for us.
329
780000
3000
앞으로 우리가 할일이 태산같지요.
13:18
This is just theoretical이론적 인.
330
783000
2000
이건 MIT의 수학자들이
13:20
This is some mathematicians수학자 at MITMIT.
331
785000
2000
작성한 단순히 이론적인 그림인데
13:22
And the truth진실 is I don't really understand알다
332
787000
2000
솔직히 말하면
13:24
a lot of what they're talking말하는 about.
333
789000
2000
전 그들이 무슨 말을 하는지 몰라요.
13:26
It involves관련 light cones and quantum양자 entanglement녹채,
334
791000
3000
'빛원뿔', '양자얽힘' 뭐 그런 말을하는데
13:29
and I don't really understand알다 any of that.
335
794000
2000
전 한마디도 이해를 못하죠.
13:31
But I can read독서 this map지도,
336
796000
2000
그렇지만 이 지도는 제가 이해하죠.
13:33
and what this map지도 says말한다
337
798000
2000
이 지도가 보여주는 것은
13:35
is that, if you're trying견딜 수 없는 to make money on the markets시장 where the red빨간 dots도트 are,
338
800000
3000
도시가 있는 증권시장이 있는
13:38
that's where people are, where the cities도시들 are,
339
803000
2000
빨간 점들에서 돈을 벌려면
13:40
you're going to have to put the servers서버 where the blue푸른 dots도트 are
340
805000
3000
푸른 점들에 서버를 설치하는 것이
13:43
to do that most가장 effectively효과적으로.
341
808000
2000
가장 효율적이라는 것입니다.
13:45
And the thing that you might have noticed알아 차 렸던 about those blue푸른 dots도트
342
810000
3000
그런데 이 지도에는
13:48
is that a lot of them are in the middle중간 of the ocean대양.
343
813000
3000
대양에도 푸른 점들이 많이 있죠.
13:51
So that's what we'll do: we'll build짓다 bubbles거품 or something,
344
816000
3000
그럼 이건 어떨까요?
13:54
or platforms플랫폼.
345
819000
2000
우리가 알고리즘이 되면
13:56
We'll actually사실은 part부품 the water
346
821000
2000
바다 한가운데 큰 공같은 구조물이나
13:58
to pull손잡이 money out of the air공기,
347
823000
2000
플랫폼을 만들고 거기서 바다를
14:00
because it's a bright선명한 future미래
348
825000
2000
가르는 기적처럼 대기로 부터
14:02
if you're an algorithm연산.
349
827000
2000
돈을 무진장 만들 수 있겠지요.
14:04
(Laughter웃음)
350
829000
2000
(웃음)
14:06
And it's not the money that's so interesting재미있는 actually사실은.
351
831000
3000
사실은 돈 자체가 흥미있는게 아니죠.
14:09
It's what the money motivates동기 부여하다,
352
834000
2000
돈이 어떤 의욕을 주는가가 중요하죠.
14:11
that we're actually사실은 terraforming테라포밍
353
836000
2000
우리는 알고리즘 같은 효율로
14:13
the Earth지구 itself그 자체
354
838000
2000
지구 자체를
14:15
with this kind종류 of algorithmic알고리즘의 efficiency능률.
355
840000
2000
실제로 바꾸고 있지요.
14:17
And in that light,
356
842000
2000
우리가 이런 생각을 염두에 두고
14:19
you go back
357
844000
2000
마이클 나자의 사진들을 다시 한번 본다면
14:21
and you look at Michael남자 이름 Najjar's나 자르 photographs사진들,
358
846000
2000
그것은 사실 메타포가 아닌
14:23
and you realize깨닫다 that they're not metaphor은유, they're prophecy예언.
359
848000
3000
예언이라는 것을 깨달을 수 있지요.
14:26
They're prophecy예언
360
851000
2000
그의 사진들은 우리가 만드는 수학이
14:28
for the kind종류 of seismic지진의, terrestrial지구의 effects효과
361
853000
4000
지구의 지형에 얼마나
14:32
of the math수학 that we're making만들기.
362
857000
2000
거대한 변화를 줄것이라는 것을 예언해 줍니다.
14:34
And the landscape경치 was always made만든
363
859000
3000
풍경이란 원래
14:37
by this sort종류 of weird기묘한, uneasy불안한 collaboration협동
364
862000
3000
자연과 인간의 괴상하고
14:40
between중에서 nature자연 and man.
365
865000
3000
거북한 협동으로 만들어 지죠.
14:43
But now there's this third제삼 co-evolutionary공동 진화론 force: algorithms알고리즘 --
366
868000
3000
그러나 이제는 풍경을 바꾸는 제3의 요소가 생겼는데
14:46
the Boston보스턴 Shuffler실업자, the Carnival사육제.
367
871000
3000
그것은 즉 보스턴 셔플러, 카니발 같은 알고리즘이죠.
14:49
And we will have to understand알다 those as nature자연,
368
874000
3000
우리는 이제 알고리즘을 자연이라고 생각해야 하는데 어떻게 보면
14:52
and in a way, they are.
369
877000
2000
사실 그말이 맞습니다.
14:54
Thank you.
370
879000
2000
감사합니다.
14:56
(Applause박수 갈채)
371
881000
20000
(박수)
Translated by Sue J. Hur
Reviewed by Young-ho Park

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee