TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
케네스 쿠키어 (Kenneth Cukier): 빅데이터, 더 나은 데이터
Filmed:
Readability: 4.1
1,663,038 views
무인자동차는 단지 시작에 불과합니다. 빅데이터가 만드는 기술과 세상은 어떨까요? 이 흥미로운 과학 강연에서, 케네스 쿠키어는 기계 학습 이후와 인간의 지식 그 이후를 보여줍니다.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
미국인들이 가장 좋아하는 파이는?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
청중: 사과요.
케네스 쿠키어: 당연히 사과죠.
케네스 쿠키어: 당연히 사과죠.
00:20
How do we know it?
2
8138
1231
어떻게 알았을까요?
00:21
Because of data.
3
9369
2753
데이터가 있으니까 알죠.
00:24
You look at supermarket sales.
4
12122
2066
슈퍼마켓의 매출을 보면 됩니다.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
30 센치 크기의
냉동 파이 매출을 보면
냉동 파이 매출을 보면
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
사과 파이가 선두입니다.
경쟁이 안 되죠.
경쟁이 안 되죠.
00:33
The majority of the sales are apple.
7
21129
5180
대부분의 매출이 사과 파이입니다.
00:38
But then supermarkets started selling
8
26309
2964
하지만 슈퍼마켓들이 11센치의
작은파이들을 판매하기 시작했고,
작은파이들을 판매하기 시작했고,
00:41
smaller, 11-centimeter pies,
9
29273
2583
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
그러자 사과 파이는
4번째, 5번째로 추락했죠.
4번째, 5번째로 추락했죠.
00:48
Why? What happened?
11
36030
2875
왜요? 무슨 일이 일어난 걸까요?
00:50
Okay, think about it.
12
38905
2818
생각해봅시다.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
30센치 파이를 살 때는
00:57
the whole family has to agree,
14
45571
2261
가족 전원이 동의를 해야 합니다.
00:59
and apple is everyone's second favorite.
15
47832
3791
그리고 사과는 모두가 두 번째로
좋아하는 파이였던 겁니다.
좋아하는 파이였던 겁니다.
01:03
(Laughter)
16
51623
1935
(웃음)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
하지만 개인이 먹을
11센치 파이를 살 때는
11센치 파이를 살 때는
01:09
you can buy the one that you want.
18
57173
3745
자기가 원하는 것을 살 수 있어요.
01:12
You can get your first choice.
19
60918
4015
자기가 가장 원하는 것을
살 수 있는 것이죠.
살 수 있는 것이죠.
01:16
You have more data.
20
64933
1641
자료가 더 많아진 겁니다.
01:18
You can see something
21
66574
1554
여러분은 적은 양의 데이터였을 때는
볼 수 없는 뭔가를 볼 수 있죠.
볼 수 없는 뭔가를 볼 수 있죠.
01:20
that you couldn't see
22
68128
1132
01:21
when you only had smaller amounts of it.
23
69260
3953
01:25
Now, the point here is that more data
24
73213
2475
여기서의 요점은 더 많은 데이터가 단지
01:27
doesn't just let us see more,
25
75688
2283
우리가 보는 같은 것에서 더 많은 것만을
보여주는 것이 아니라는 겁니다.
보여주는 것이 아니라는 겁니다.
01:29
more of the same thing we were looking at.
26
77971
1854
01:31
More data allows us to see new.
27
79825
3613
더 많은 데이터는
새로운 걸 볼 수 있게 해주죠.
새로운 걸 볼 수 있게 해주죠.
01:35
It allows us to see better.
28
83438
3094
우리가 더 잘 보게 해주고,
우리가 다른 것을 보게 해주고,
우리가 다른 것을 보게 해주고,
01:38
It allows us to see different.
29
86532
3656
01:42
In this case, it allows us to see
30
90188
3173
이 경우에는, 미국인들이 가장 좋아하는
파이가 사과가 아니란 걸 알려줍니다.
파이가 사과가 아니란 걸 알려줍니다.
01:45
what America's favorite pie is:
31
93361
2913
01:48
not apple.
32
96274
2542
01:50
Now, you probably all have heard the term big data.
33
98816
3614
다들 빅데이터라는 말을
들어보셨을 겁니다.
들어보셨을 겁니다.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
사실, 그, 빅데이터라는 단어에
식상하셨을거예요.
식상하셨을거예요.
01:56
big data.
35
104487
1630
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
빅데이터가
구설수에 오르는 건 사실이지만,
구설수에 오르는 건 사실이지만,
02:01
and that is very unfortunate,
37
109447
2332
굉장히 안타깝게 생각합니다.
02:03
because big data is an extremely important tool
38
111779
3046
왜냐하면 빅데이터는 사회의 발전에 있어서
굉장히 중요한 도구이기 때문입니다.
굉장히 중요한 도구이기 때문입니다.
02:06
by which society is going to advance.
39
114825
3734
02:10
In the past, we used to look at small data
40
118559
3561
과거에, 우리는 소량의 자료를 보며
02:14
and think about what it would mean
41
122120
1704
세상을 이해하려 노력하는 게
무엇을 의미하는지 생각했습니다.
무엇을 의미하는지 생각했습니다.
02:15
to try to understand the world,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
지금 우리는 그 어느 때보다도
02:19
more than we ever could before.
44
127311
2722
많은 자료를 가지고 있습니다.
02:22
What we find is that when we have
45
130033
1877
방대한 양의 자료가 있으면
02:23
a large body of data, we can fundamentally do things
46
131910
2724
근본적으로 더 적은 자료로는
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
할 수 없었던 것들을
할 수 있다는 것을 깨달았습니다.
할 수 있다는 것을 깨달았습니다.
02:29
Big data is important, and big data is new,
48
137910
2641
빅데이터는 중요하고,
빅데이터는 새롭습니다.
빅데이터는 새롭습니다.
02:32
and when you think about it,
49
140551
1777
여러분이 생각해 보시면, 기아와
의료 지원, 전력 공급,
의료 지원, 전력 공급,
02:34
the only way this planet is going to deal
50
142328
2216
02:36
with its global challenges —
51
144544
1789
02:38
to feed people, supply them with medical care,
52
146333
3537
02:41
supply them with energy, electricity,
53
149870
2810
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
기상변화로그들이 고통받는 문제와 같은
세계적인 난관들을 해쳐나갈 수 있었던
세계적인 난관들을 해쳐나갈 수 있었던
02:46
because of global warming —
55
154469
1238
02:47
is because of the effective use of data.
56
155707
4195
유일한 방법은 데이터를 효과적으로
사용했기 때문이죠.
사용했기 때문이죠.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
그러면 빅 데이터가
새롭고 중요한 이유는 뭘까요?
새롭고 중요한 이유는 뭘까요?
02:55
Well, to answer that question, let's think about
58
163772
2517
글쎄요, 그 질문에 대답 하기 위해,
02:58
what information looked like,
59
166289
1896
과거에는 정보라는 것이 물리적으로
어떤 형태였는지 알아보죠.
어떤 형태였는지 알아보죠.
03:00
physically looked like in the past.
60
168185
3034
03:03
In 1908, on the island of Crete,
61
171219
3611
1908년에, 크레테 섬에서,
03:06
archaeologists discovered a clay disc.
62
174830
4735
고고학자들이 진흙 접시를
하나 발견했습니다.
하나 발견했습니다.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
기원전2000년의 접시로 추정했으니
4000년 정도 됐겠네요.
4000년 정도 됐겠네요.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
그 접시에 뭔가 새겨진 게 있었는데요,
03:17
but we actually don't know what it means.
65
185628
1327
뭘 의미하는 지는 모릅니다.
완전히 미지의 것이지만,
완전히 미지의 것이지만,
03:18
It's a complete mystery, but the point is that
66
186955
2098
요점은, 4000년 전에는 정보가
이런 형태였다는 사실입니다.
이런 형태였다는 사실입니다.
03:21
this is what information used to look like
67
189053
1928
03:22
4,000 years ago.
68
190981
2089
03:25
This is how society stored
69
193070
2548
그 사회는 정보를 이런 형태로
저장하고 전파한 것입니다.
저장하고 전파한 것입니다.
03:27
and transmitted information.
70
195618
3524
03:31
Now, society hasn't advanced all that much.
71
199142
4160
아직 사회는 그리
많이 발달하진 않았어요.
많이 발달하진 않았어요.
03:35
We still store information on discs,
72
203302
3474
우리는 지금도 여전히
디스크에 정보를 저장해요.
디스크에 정보를 저장해요.
03:38
but now we can store a lot more information,
73
206776
3184
하지만 이전의 그 어느때 보다
훨씬 더 많은 양을 저장할 수 있죠.
훨씬 더 많은 양을 저장할 수 있죠.
03:41
more than ever before.
74
209960
1260
03:43
Searching it is easier. Copying it easier.
75
211220
3093
수색하는 것이 더 쉽고,
복사하는 것도 더 쉽고,
복사하는 것도 더 쉽고,
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
공유하기도 더 쉽고,
처리도 더 쉬워졌습니다.
처리도 더 쉬워졌습니다.
03:49
And what we can do is we can reuse this information
77
217813
2766
우리가 이제 할 수 있는 것은
데이터를 처음 수집했을 때는
상상하지 못한 방법으로
상상하지 못한 방법으로
03:52
for uses that we never even imagined
78
220579
1834
03:54
when we first collected the data.
79
222413
3195
이 정보를 다시
사용할 수 있다는 겁니다.
사용할 수 있다는 겁니다.
03:57
In this respect, the data has gone
80
225608
2252
이러한 관점에서,
03:59
from a stock to a flow,
81
227860
3532
데이터는 저장된 것에서 흐름으로,
04:03
from something that is stationary and static
82
231392
3938
고정되고 변하지 않는 것에서
04:07
to something that is fluid and dynamic.
83
235330
3609
움직이고 변화하는
유동적인 것으로 바뀌었습니다.
유동적인 것으로 바뀌었습니다.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
여기에 정보의
유동성이 있는 것입니다.
유동성이 있는 것입니다.
04:14
The disc that was discovered off of Crete
85
242962
3474
크레테 섬에서 발견된 접시는
04:18
that's 4,000 years old, is heavy,
86
246436
3764
4,000년이나 지났고, 무거웠으며,
04:22
it doesn't store a lot of information,
87
250200
1962
정보의 양도 많지 않았고,
04:24
and that information is unchangeable.
88
252162
3116
이를 바꿀 수도 없었죠.
04:27
By contrast, all of the files
89
255278
4011
이와는 대조적으로
미국 국가안보국에서
에드워드 스노든이 빼낸 모든 파일은
에드워드 스노든이 빼낸 모든 파일은
04:31
that Edward Snowden took
90
259289
1861
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
04:35
fits on a memory stick
92
263771
2419
손톱만한 메모리 스틱에
04:38
the size of a fingernail,
93
266190
3010
다 들어갔고,
04:41
and it can be shared at the speed of light.
94
269200
4745
빛의 속도로 공유할 수 있었습니다.
04:45
More data. More.
95
273945
5255
더 많은 자료는 계속 늘어갑니다.
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
오늘날 세계에 데이터가
넘쳐나는 이유 중 하나는
넘쳐나는 이유 중 하나는
04:53
is we are collecting things
97
281174
1432
정보를 제공 받은 자료들을
항상, 언제다 모으기 때문이고요,
항상, 언제다 모으기 때문이고요,
04:54
that we've always collected information on,
98
282606
3280
04:57
but another reason why is we're taking things
99
285886
2656
또 다른 이유는
정보로써 가치는 있지만 자료의 형태로
가공되지 못했던 것을 이제는
가공되지 못했던 것을 이제는
05:00
that have always been informational
100
288542
2812
05:03
but have never been rendered into a data format
101
291354
2486
05:05
and we are putting it into data.
102
293840
2419
자료의 형태로 가공할 수 있게
되었기 때문입니다.
되었기 때문입니다.
05:08
Think, for example, the question of location.
103
296259
3308
에를 들어,
위치에 대한 질문을 생각해보죠.
위치에 대한 질문을 생각해보죠.
05:11
Take, for example, Martin Luther.
104
299567
2249
마틴 루터를 예로 들어 볼게요.
05:13
If we wanted to know in the 1500s
105
301816
1597
1500년 경에 마틴 루터의
위치를 파악하려면,
위치를 파악하려면,
05:15
where Martin Luther was,
106
303413
2667
05:18
we would have to follow him at all times,
107
306080
2092
항상 그의 꽁무니를 쫓아다니면서
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
펜과 잉크병을 들고,
기록을 해야만했죠.
기록을 해야만했죠.
05:22
and record it,
109
310309
1676
05:23
but now think about what it looks like today.
110
311985
2183
하지만 지금의 모습은 어떤지
생각해 보세요.
생각해 보세요.
05:26
You know that somewhere,
111
314168
2122
여러분들의 위치를 실시간으로
기록하는 스프레드시트나 아니면
기록하는 스프레드시트나 아니면
05:28
probably in a telecommunications carrier's database,
112
316290
2446
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
최소한 데이터베이스 입력 형태로
통신사 데이터베이스라던가,
통신사 데이터베이스라던가,
05:33
that records your information
114
321772
2088
05:35
of where you've been at all times.
115
323860
2063
어딘가에는 아마 있을 겁니다.
휴대전화를 가지고 있고,
휴대전화를 가지고 있고,
05:37
If you have a cell phone,
116
325923
1360
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
그 전화에 GPS가 있다면,
아니 없다고 하더라도,
아니 없다고 하더라도,
05:42
it can record your information.
118
330130
2385
여러분의 정보를 기록할 수 있습니다.
05:44
In this respect, location has been datafied.
119
332515
4084
즉, 이제 위치는
데이터화가 되었다는 말이죠.
데이터화가 되었다는 말이죠.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
이제 자세를
예로 들어 보겠습니다.
예로 들어 보겠습니다.
05:53
the way that you are all sitting right now,
121
341200
1285
여러분들이 앉아있는 자세요.
05:54
the way that you sit,
122
342485
2030
이 분의 자세와, 저 분의 자세, 또
저쪽 분의 자세는 모두 다릅니다.
저쪽 분의 자세는 모두 다릅니다.
05:56
the way that you sit, the way that you sit.
123
344515
2771
05:59
It's all different, and it's a function of your leg length
124
347286
2077
이는 다리 길이와 등, 또 등의 굽어진
정도에 따른 함수와 같거든요.
정도에 따른 함수와 같거든요.
06:01
and your back and the contours of your back,
125
349363
2093
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
만약 여러분이 지금 앉아있는 의자에
수많은 센서를 단다고 한다면,
06:05
into all of your chairs right now,
127
353987
1766
06:07
I could create an index that's fairly unique to you,
128
355753
3600
개개인에 맞는 상수들을
다 만들 수 있었을 겁니다.
다 만들 수 있었을 겁니다.
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
손가락은 아니지만,
지문과 비슷하겠군요.
지문과 비슷하겠군요.
06:15
So what could we do with this?
130
363762
2969
이걸로 뭘 할 수 있을까요?
06:18
Researchers in Tokyo are using it
131
366731
2397
도쿄의 연구자들은 이를 통해
06:21
as a potential anti-theft device in cars.
132
369128
4388
자동차 도난 방지기를
만드는 것을 모색하고 있습니다.
만드는 것을 모색하고 있습니다.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
원리는 이렇습니다.
자동차 도둑이 운전석에 앉아서
자동차 도둑이 운전석에 앉아서
06:28
tries to stream off, but the car recognizes
134
376440
2104
차를 움직이려고 하지만
자동차가 운전석에 앉은 사람이
자동차가 운전석에 앉은 사람이
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
인증된 운전자가 아님을 인식하고
06:32
and maybe the engine just stops, unless you
136
380906
2164
엔진을 끄거나 할 겁니다.
06:35
type in a password into the dashboard
137
383070
3177
그 사람이
비밀번호를 입력하거나 해서
비밀번호를 입력하거나 해서
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
자신이 허가받았다는 것을
알리지 않는 한 말이죠.
알리지 않는 한 말이죠.
좋아요.
06:42
What if every single car in Europe
139
390905
2553
유럽에 있는 모든 차량에
이 기술이 적용되었다면 어떨까요?
이 기술이 적용되었다면 어떨까요?
06:45
had this technology in it?
140
393458
1457
06:46
What could we do then?
141
394915
3165
그러면 무엇을 할 수 있을까요?
06:50
Maybe, if we aggregated the data,
142
398080
2240
데이터를 모아 5초 후의 자동차사고를
예측할 수 있는 조짐을 알아낼 수 있죠.
예측할 수 있는 조짐을 알아낼 수 있죠.
06:52
maybe we could identify telltale signs
143
400320
3814
06:56
that best predict that a car accident
144
404134
2709
06:58
is going to take place in the next five seconds.
145
406843
5893
07:04
And then what we will have datafied
146
412736
2557
또 운전자의 피로를 데이터로 만들어서
운전자가 그 상태에 접어들게 되면
운전자가 그 상태에 접어들게 되면
07:07
is driver fatigue,
147
415293
1783
07:09
and the service would be when the car senses
148
417076
2334
07:11
that the person slumps into that position,
149
419410
3437
차량이 이를 감지하고 자동적으로
내부 알람을 작동시키는 거죠.
내부 알람을 작동시키는 거죠.
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
운전대가 진동한다던지, 내부에서,
"정신차려! 도로를 봐야지!"하는
"정신차려! 도로를 봐야지!"하는
07:20
to say, "Hey, wake up,
152
428866
1721
07:22
pay more attention to the road."
153
430587
1904
경보가 울리게 하는 것처럼요.
07:24
These are the sorts of things we can do
154
432491
1853
우리의 삶을 더 분석할 수 있다면
이런 일들이 가능해집니다.
이런 일들이 가능해집니다.
07:26
when we datafy more aspects of our lives.
155
434344
2821
07:29
So what is the value of big data?
156
437165
3675
그렇다면 빅데이터는
어떤 가치를 가지고 있을까요?
어떤 가치를 가지고 있을까요?
07:32
Well, think about it.
157
440840
2190
자, 생각해 보세요.
07:35
You have more information.
158
443030
2412
더 많은 정보가 있으면
전엔 할 수 없었던 일들을 할 수 있어요.
전엔 할 수 없었던 일들을 할 수 있어요.
07:37
You can do things that you couldn't do before.
159
445442
3341
07:40
One of the most impressive areas
160
448783
1676
이런 일이 일어나는 가장 인상적인 분야 중
하나는 바로 기계 학습의 영역입니다.
하나는 바로 기계 학습의 영역입니다.
07:42
where this concept is taking place
161
450459
1729
07:44
is in the area of machine learning.
162
452188
3307
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
기계학습은 인공지능의 한 분야인데,
07:50
which itself is a branch of computer science.
164
458572
3378
인공지능은
컴퓨터 공학의 일부입니다.
컴퓨터 공학의 일부입니다.
07:53
The general idea is that instead of
165
461950
1543
쉽게 말하자면
07:55
instructing a computer what do do,
166
463493
2117
컴퓨터에게 지시를 내리는 대신에
07:57
we are going to simply throw data at the problem
167
465610
2620
데이터와 문제를 주고
08:00
and tell the computer to figure it out for itself.
168
468230
3206
스스로 알아내게 만드는 겁니다.
08:03
And it will help you understand it
169
471436
1777
그 기원으로 거슬러 올라가보면
08:05
by seeing its origins.
170
473213
3552
이해에 도움이 될 거예요.
08:08
In the 1950s, a computer scientist
171
476765
2388
1950년경에,
IBM의 컴퓨터 학자인
아서 사무엘은 첵커 게임을 즐겼어요.
아서 사무엘은 첵커 게임을 즐겼어요.
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
08:14
so he wrote a computer program
173
482745
1402
그래서, 컴퓨터 프로그램을 짜서
08:16
so he could play against the computer.
174
484147
2813
컴퓨터를 상대로 게임을 했죠.
08:18
He played. He won.
175
486960
2711
게임을 했더니 이기고,
08:21
He played. He won.
176
489671
2103
게임을 했더니 또 이기고,
08:23
He played. He won,
177
491774
3015
계속해서 이겼죠.
08:26
because the computer only knew
178
494789
1778
왜냐하면 컴퓨터는 단지
08:28
what a legal move was.
179
496567
2227
게임규칙만 알았지만
08:30
Arthur Samuel knew something else.
180
498794
2087
아서 사무엘은
그 이상을 알았기 때문이죠.
그 이상을 알았기 때문이죠.
08:32
Arthur Samuel knew strategy.
181
500881
4629
사무엘은 전략이라는 걸
알고 있었던 겁니다.
알고 있었던 겁니다.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
그래서 그는
보조 프로그램을 개발했어요.
보조 프로그램을 개발했어요.
08:39
operating in the background, and all it did
183
507906
1974
그 프로그램은 안에서 작동하면서
주어진 게임의 형국에서 움직일 때마다
주어진 게임의 형국에서 움직일 때마다
08:41
was score the probability
184
509880
1817
08:43
that a given board configuration would likely lead
185
511697
2563
08:46
to a winning board versus a losing board
186
514260
2910
이길 형국과 질 형국으로
나아갈 확률만을 계산했습니다.
나아갈 확률만을 계산했습니다.
08:49
after every move.
187
517170
2508
08:51
He plays the computer. He wins.
188
519678
3150
그래도 컴퓨터랑 게임을 하면 이기고,
08:54
He plays the computer. He wins.
189
522828
2508
컴퓨터랑 게임을 하면, 또 이기고
08:57
He plays the computer. He wins.
190
525336
3731
컴퓨터랑 게임을 하면,
계속해서 이겼죠.
계속해서 이겼죠.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
그러고 나서
아서 사무엘은 컴퓨터가
아서 사무엘은 컴퓨터가
09:03
to play itself.
192
531344
2227
혼자 게임을 하도록 놔뒀습니다.
09:05
It plays itself. It collects more data.
193
533571
3509
스스로 게임을 하면서
더 많은 데이터를 모았죠.
더 많은 데이터를 모았죠.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
자료가 많아질수록
예측의 정확도는 높아졌습니다.
예측의 정확도는 높아졌습니다.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
그리고 난 다음에, 사무엘이 컴퓨터와
다시 게임을 했고, 그는 졌습니다.
다시 게임을 했고, 그는 졌습니다.
09:15
and he plays it, and he loses,
196
543493
2318
09:17
and he plays it, and he loses,
197
545811
2069
그는 게임을 하고, 지고
09:19
and he plays it, and he loses,
198
547880
2047
게임을하고 또 졌습니다.
09:21
and Arthur Samuel has created a machine
199
549927
2599
마침내 자신이 가르친 일에 대해서
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
본인의 능력을 초과하는
기계를 만들어 낸겁니다.
기계를 만들어 낸겁니다.
09:30
And this idea of machine learning
201
558814
2498
그리고 이 기계학습의 개념은
09:33
is going everywhere.
202
561312
3927
여러 곳으로 전파 되죠.
09:37
How do you think we have self-driving cars?
203
565239
3149
어떻게 무인자동차가
나왔다고 생각하세요?
나왔다고 생각하세요?
09:40
Are we any better off as a society
204
568388
2137
소프트웨어에 길에 대한
모든 규칙을 모셔놓은 것이 더 나은
모든 규칙을 모셔놓은 것이 더 나은
09:42
enshrining all the rules of the road into software?
205
570525
3285
사회로 가는 길일까요?
09:45
No. Memory is cheaper. No.
206
573810
2598
아닙니다. 기억장치가
더 싸기 때문도 아닙니다.
더 싸기 때문도 아닙니다.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
알고리즘이 더 빨라져서도 아니고.
프로세서가 더 나아서도 아닙니다.
프로세서가 더 나아서도 아닙니다.
09:52
All of those things matter, but that's not why.
208
580402
2772
이 모든 것들이 중요하긴 하지만
근본적인 이유는 아닙니다.
근본적인 이유는 아닙니다.
09:55
It's because we changed the nature of the problem.
209
583174
3141
이유는 우리가 문제의 성격을
바꾸었기 때문입니다.
바꾸었기 때문입니다.
09:58
We changed the nature of the problem from one
210
586315
1530
컴퓨터에게 운전하는 법을 과도하고 자세하게
설명하려했던 것을 다음처럼 바꾸었죠:
설명하려했던 것을 다음처럼 바꾸었죠:
09:59
in which we tried to overtly and explicitly
211
587845
2245
10:02
explain to the computer how to drive
212
590090
2581
10:04
to one in which we say,
213
592671
1316
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
"여기 차량에 대한 많은
자료가 있어. 네가 알아서 잘 해봐.
자료가 있어. 네가 알아서 잘 해봐.
10:07
You figure it out.
215
595863
1533
10:09
You figure it out that that is a traffic light,
216
597396
1867
저게 신호등인지도 알아내고,
10:11
that that traffic light is red and not green,
217
599263
2081
저 신호등이 초록색이 아니라
빨간색인 것도 직접 알아내야해.
빨간색인 것도 직접 알아내야해.
10:13
that that means that you need to stop
218
601344
2014
그건 앞으로 가라는 게 아니라
멈추라는 말인 것도 말이야."
멈추라는 말인 것도 말이야."
10:15
and not go forward."
219
603358
3083
10:18
Machine learning is at the basis
220
606441
1518
기계학습은 인터넷에서
많은 것들의 기반입니다.
많은 것들의 기반입니다.
10:19
of many of the things that we do online:
221
607959
1991
10:21
search engines,
222
609950
1857
그 중에는 검색엔진이나 아마존의
개인화 알고리즘, 컴퓨터 번역,
개인화 알고리즘, 컴퓨터 번역,
10:23
Amazon's personalization algorithm,
223
611807
3801
10:27
computer translation,
224
615608
2212
10:29
voice recognition systems.
225
617820
4290
그리고 음성 인식 시스템들이 있죠.
10:34
Researchers recently have looked at
226
622110
2835
연구자들은 최근에 암세포
조직 검사를 살펴보고 있습니다.
조직 검사를 살펴보고 있습니다.
10:36
the question of biopsies,
227
624945
3195
10:40
cancerous biopsies,
228
628140
2767
10:42
and they've asked the computer to identify
229
630907
2315
컴퓨터가 데이터와 생존율로
세포들이 실제로 암세포인지를 판별했죠.
세포들이 실제로 암세포인지를 판별했죠.
10:45
by looking at the data and survival rates
230
633222
2471
10:47
to determine whether cells are actually
231
635693
4667
10:52
cancerous or not,
232
640360
2544
10:54
and sure enough, when you throw the data at it,
233
642904
1778
당연히 데이터를 주면
기계학습 알고리즘을 통해
기계학습 알고리즘을 통해
10:56
through a machine-learning algorithm,
234
644682
2047
10:58
the machine was able to identify
235
646729
1877
유방암 조직의 검사가 암인지를 예측할
수 있는 12개의 조짐을 판별할 수 있었죠.
수 있는 12개의 조짐을 판별할 수 있었죠.
11:00
the 12 telltale signs that best predict
236
648606
2262
11:02
that this biopsy of the breast cancer cells
237
650868
3299
11:06
are indeed cancerous.
238
654167
3218
11:09
The problem: The medical literature
239
657385
2498
문제는 의학 저서에는 단지
9개만이 알려저 있다는 겁니다.
9개만이 알려저 있다는 겁니다.
11:11
only knew nine of them.
240
659883
2789
11:14
Three of the traits were ones
241
662672
1800
사람은 살펴볼 필요가 없었던 3가지
특성을 기계가 포착한 겁니다.
특성을 기계가 포착한 겁니다.
11:16
that people didn't need to look for,
242
664472
2975
11:19
but that the machine spotted.
243
667447
5531
11:24
Now, there are dark sides to big data as well.
244
672978
5925
자, 빅데이터의
어두운 면도 있습니다.
어두운 면도 있습니다.
11:30
It will improve our lives, but there are problems
245
678903
2074
빅데이터는 우리의 삶을
나아지게 만들 겁니다.
나아지게 만들 겁니다.
11:32
that we need to be conscious of,
246
680977
2640
하지만 문제점이 있다는 사실도
우리는 알고 있어야 합니다.
우리는 알고 있어야 합니다.
첫 번째는
11:35
and the first one is the idea
247
683617
2623
우리가 예측에 의해 처벌을
받을 수도 있다는 개념입니다.
받을 수도 있다는 개념입니다.
11:38
that we may be punished for predictions,
248
686240
2686
11:40
that the police may use big data for their purposes,
249
688926
3870
경찰이 영화, "마이너리티 리포트"처럼
자신들의 목적을 위해 빅데이터를
사용할 수도 있다는 겁니다.
사용할 수도 있다는 겁니다.
11:44
a little bit like "Minority Report."
250
692796
2351
11:47
Now, it's a term called predictive policing,
251
695147
2441
이를 예측 치안,
또는 논리 범죄학 이라고 합니다.
또는 논리 범죄학 이라고 합니다.
11:49
or algorithmic criminology,
252
697588
2363
11:51
and the idea is that if we take a lot of data,
253
699951
2036
과거에 범죄가 일어난 지역에
데이터를 많이 모은다면
데이터를 많이 모은다면
11:53
for example where past crimes have been,
254
701987
2159
11:56
we know where to send the patrols.
255
704146
2543
어디로 순찰을 보내야할 지
알 수 있다는 겁니다.
알 수 있다는 겁니다.
11:58
That makes sense, but the problem, of course,
256
706689
2115
맞는 말이죠. 하지만 문제는,
12:00
is that it's not simply going to stop on location data,
257
708804
4544
단순히
위치 자료에만 머무는 것이 아니라
위치 자료에만 머무는 것이 아니라
12:05
it's going to go down to the level of the individual.
258
713348
2959
개인 수준에까지 이를 것이라는 겁니다.
12:08
Why don't we use data about the person's
259
716307
2250
개인의 고등학교 성적표에 대한 자료를
사용하는 건 어떨까요?
사용하는 건 어떨까요?
12:10
high school transcript?
260
718557
2228
12:12
Maybe we should use the fact that
261
720785
1561
사람들의 고용 상태나, 신용점수,
인터넷 이용 행적, 또는
인터넷 이용 행적, 또는
12:14
they're unemployed or not, their credit score,
262
722346
2028
12:16
their web-surfing behavior,
263
724374
1552
12:17
whether they're up late at night.
264
725926
1878
밤에 자지않고 깨어있는 지의
상태 등을 써야할 지도 모르죠.
상태 등을 써야할 지도 모르죠.
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Fitbit이 신체 생리를 알 수 있다면
12:22
will show that they have aggressive thoughts.
266
730965
4236
사람들이 공격적인 생각을
하고 있는지 보여줄 겁니다.
하고 있는지 보여줄 겁니다.
12:27
We may have algorithms that are likely to predict
267
735201
2221
우리가 취할 행동을 예상하는 알고리즘을
12:29
what we are about to do,
268
737422
1633
가질 수도 있을 것이고,
12:31
and we may be held accountable
269
739055
1244
행동을 취하기도 전에 그것에 대해
책임을 져야할 지도 모릅니다.
책임을 져야할 지도 모릅니다.
12:32
before we've actually acted.
270
740299
2590
12:34
Privacy was the central challenge
271
742889
1732
자료가 적을 당시에는
사생활 보호가 쟁점이었습니다.
사생활 보호가 쟁점이었습니다.
12:36
in a small data era.
272
744621
2880
12:39
In the big data age,
273
747501
2149
빅데이터 시대에는
12:41
the challenge will be safeguarding free will,
274
749650
4523
자유의지, 도덕적 선택, 인간의 의지,
또 선택을 보호하는 게 쟁점이 됩니다.
또 선택을 보호하는 게 쟁점이 됩니다.
12:46
moral choice, human volition,
275
754173
3779
12:49
human agency.
276
757952
3068
12:54
There is another problem:
277
762540
2225
또 다른 문제가 있어요.
12:56
Big data is going to steal our jobs.
278
764765
3556
빅데이터 때문에
일자리는 줄어들 겁니다.
일자리는 줄어들 겁니다.
13:00
Big data and algorithms are going to challenge
279
768321
3512
빅데이터와 알고리즘은
21세기의 전문 지식분야의 일에
종사하고 있는
종사하고 있는
13:03
white collar, professional knowledge work
280
771833
3061
13:06
in the 21st century
281
774894
1653
화이트 칼라에
도전장을 내밀 것입니다.
도전장을 내밀 것입니다.
13:08
in the same way that factory automation
282
776547
2434
20세기에
공장 자동화와 생산 라인이
공장 자동화와 생산 라인이
13:10
and the assembly line
283
778981
2189
블루 칼라 노동자들에게
도전한 것처럼 말이죠.
도전한 것처럼 말이죠.
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
13:16
Think about a lab technician
285
784196
2092
현미경으로 암 조직검사를 살펴보고 암인지를
판별하는 실험실의 연구자를 떠올려보세요.
판별하는 실험실의 연구자를 떠올려보세요.
13:18
who is looking through a microscope
286
786288
1409
13:19
at a cancer biopsy
287
787697
1624
13:21
and determining whether it's cancerous or not.
288
789321
2637
대학도 나왔고, 부동산도 사고,
투표도 하고, 또 사회의 구성원이죠.
투표도 하고, 또 사회의 구성원이죠.
13:23
The person went to university.
289
791958
1972
13:25
The person buys property.
290
793930
1430
13:27
He or she votes.
291
795360
1741
13:29
He or she is a stakeholder in society.
292
797101
3666
13:32
And that person's job,
293
800767
1394
그 직업군 뿐만 아니라, 비슷한
직종에 있는 모든 사람들은,
직종에 있는 모든 사람들은,
13:34
as well as an entire fleet
294
802161
1609
13:35
of professionals like that person,
295
803770
1969
13:37
is going to find that their jobs are radically changed
296
805739
3150
자신들의 직업이 엄청나게 변하거나,
완전히 사라지는 것을 보게 될 겁니다.
완전히 사라지는 것을 보게 될 겁니다.
13:40
or actually completely eliminated.
297
808889
2357
13:43
Now, we like to think
298
811246
1284
우리는 단기의 손실 후, 장기간에 걸쳐
기술은 일자리를 만든다고 알고 있죠.
기술은 일자리를 만든다고 알고 있죠.
13:44
that technology creates jobs over a period of time
299
812530
3187
13:47
after a short, temporary period of dislocation,
300
815717
3465
13:51
and that is true for the frame of reference
301
819182
1941
그리고 우리가 겪은 산업혁명기간 동안이
이랬기에 맞다고 생각이라고 할 수 있죠.
이랬기에 맞다고 생각이라고 할 수 있죠.
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
13:55
because that's precisely what happened.
303
823265
2328
하지만 그 분석에서,
우리가 잊은 게 있습니다.
우리가 잊은 게 있습니다.
13:57
But we forget something in that analysis:
304
825593
2333
13:59
There are some categories of jobs
305
827926
1830
어떤 직업들은 없어지고나서
다시 생기진 않았습니다.
다시 생기진 않았습니다.
14:01
that simply get eliminated and never come back.
306
829756
3420
14:05
The Industrial Revolution wasn't very good
307
833176
2004
여러분이 말이었다면
14:07
if you were a horse.
308
835180
4002
산업혁명은 결코
좋은 게 아니었을 겁니다.
좋은 게 아니었을 겁니다.
14:11
So we're going to need to be careful
309
839182
2055
우리는 주의를 많이 기울여야 하고,
14:13
and take big data and adjust it for our needs,
310
841237
3514
빅데이터를 우리 인간의 필요에 맞게
조정해야 할 것입니다.
조정해야 할 것입니다.
14:16
our very human needs.
311
844751
3185
14:19
We have to be the master of this technology,
312
847936
1954
우리는 이 기술의 노예가 아니라
주인이 되어야만 합니다.
주인이 되어야만 합니다.
14:21
not its servant.
313
849890
1656
14:23
We are just at the outset of the big data era,
314
851546
2958
빅데이터 시대는 이제 막 시작됐고,
솔직히 우리는 현재의 자료를 다루는 것도
솔직히 우리는 현재의 자료를 다루는 것도
14:26
and honestly, we are not very good
315
854504
3150
14:29
at handling all the data that we can now collect.
316
857654
4207
제대로 못하고 있습니다.
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
국가안보국만의 문제가 아닙니다.
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
기업들도 많은 자료를 모아서
오용하고 있습니다.
오용하고 있습니다.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
이를 더 잘해야 하는데
시간이 좀 걸리긴 할 겁니다.
시간이 좀 걸리긴 할 겁니다.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
원시인이 불을 처음 봤을 때의
어려움과 비슷하다고 할 수 있겠네요.
어려움과 비슷하다고 할 수 있겠네요.
14:45
by primitive man and fire.
321
873718
2407
14:48
This is a tool, but this is a tool that,
322
876125
1885
빅데이터는 도구이지만
14:50
unless we're careful, will burn us.
323
878010
3559
조심하지 않으면
데일 위험이 있는 도구입니다.
데일 위험이 있는 도구입니다.
14:56
Big data is going to transform how we live,
324
884008
3120
빅데이터는 우리가 살고, 일하고,
14:59
how we work and how we think.
325
887128
2801
생각하는 방식을 바꿔놓을 겁니다.
15:01
It is going to help us manage our careers
326
889929
1889
빅데이터는 우리의 경력 관리에
도움을 주고, 만족스럽고 희망찬,
도움을 주고, 만족스럽고 희망찬,
15:03
and lead lives of satisfaction and hope
327
891818
3634
그리고 행복하고 건강한 삶으로
우리를 이끌어 줄 겁니다.
우리를 이끌어 줄 겁니다.
15:07
and happiness and health,
328
895452
2992
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
하지만 과거에 우리는
정보 기술을 종종 떠올렸습니다.
정보 기술을 종종 떠올렸습니다.
15:13
and our eyes have only seen the T,
330
901750
2208
우리의 눈은 기술과 제품에만
눈을 뒀습니다.
눈을 뒀습니다.
15:15
the technology, the hardware,
331
903958
1686
15:17
because that's what was physical.
332
905644
2262
물질적인 것이니까요.
15:19
We now need to recast our gaze at the I,
333
907906
2924
이제는 정보로 눈을 돌려야 할 때죠.
덜 가시적이지만
덜 가시적이지만
15:22
the information,
334
910830
1380
15:24
which is less apparent,
335
912210
1373
어떤 의미에서는 더욱 중요한 것이죠.
15:25
but in some ways a lot more important.
336
913583
4109
15:29
Humanity can finally learn from the information
337
917692
3465
세상과 그 안에서의
우리의 위치를 이해하는
우리의 위치를 이해하는
15:33
that it can collect,
338
921157
2418
무한한 탐험의 일부로써
15:35
as part of our timeless quest
339
923575
2115
인류는 마침내 우리가
수집할 수 있는 정보로부터
수집할 수 있는 정보로부터
15:37
to understand the world and our place in it,
340
925690
3159
많은 것을 배울 수 있습니다.
15:40
and that's why big data is a big deal.
341
928849
5631
그리고 이게 빅데이터가
중요한 관건인 이유입니다.
중요한 관건인 이유입니다.
(박수)
15:46
(Applause)
342
934480
3568
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com