ABOUT THE SPEAKER
Mona Chalabi - Data journalist
Mona Chalabi tries to take the numb out of numbers. She's left with lots of "ers."

Why you should listen

After working for a humanitarian organisation, Mona Chalabi saw how important data was, but also how easily it could be used by people with their own specific agendas. Since then, her work for organizations like Transparency International and The Guardian has had one goal: to make sure as many people as possible can find and question the data they need to make informed decisions about their lives.

Chalabi is currently the Data Editor of the Guardian US, where she writes articles, produces documentaries and turns data into illustrations and animations. In 2016, her data illustrations were commended by the Royal Statistical Society.

More profile about the speaker
Mona Chalabi | Speaker | TED.com
TEDNYC

Mona Chalabi: 3 ways to spot a bad statistic

모나 찰라비(Mona Chalabi): 잘못된 통계를 알아내는 세 가지 방법

Filmed:
1,888,599 views

때로는 어떤 통계가 신뢰할만한 통계인지 아는 것이 어렵습니다. 하지만 그렇다고 통계 일체를 배제하면 안 됩니다. 대신에 통계 이면을 보는 방법을 배워야 합니다. 이 유쾌하고 재미있는 강연을 통해 테이터 기자인 모나 찰라비가 숫자가 정말로 무엇을 말하고 있는지를 해석하고 이해하거나 질문에 답하는 데 유용한 팁을 알려드립니다.
- Data journalist
Mona Chalabi tries to take the numb out of numbers. She's left with lots of "ers." Full bio

Double-click the English transcript below to play the video.

00:12
Now, I'm going to be talking말하는
about statistics통계 today오늘.
0
884
2763
오늘은 통계에 대해 말씀드릴 거예요.
00:15
If that makes~을 만든다 you immediately바로 feel
a little bit비트 wary조심성 있는, that's OK,
1
3671
3138
약간 불안해하셔도 괜찮아요.
00:18
that doesn't make you some
kind종류 of crazy미친 conspiracy음모 theorist이론가,
2
6833
2859
그렇다고 해서 정신나간
음모론자인 것이 아니라
00:21
it makes~을 만든다 you skeptical의심 많은.
3
9716
1296
단지 회의적인 분인 것이니까요.
00:23
And when it comes온다 to numbers번호,
especially특히 now, you should be skeptical의심 많은.
4
11036
3886
숫자에 관해서는, 특히나 지금은
의심을 하셔야 합니다.
00:26
But you should also또한 be able할 수 있는 to tell
which어느 numbers번호 are reliable신뢰할 수있는
5
14946
3011
하지만 어떤 숫자를 신뢰해도 되고
어떤 숫자를 신뢰하면 안 되는지를
00:29
and which어느 ones그들 aren't있지 않다..
6
17981
1160
구분할 줄 알아야 해요.
00:31
So today오늘 I want to try to give you
some tools도구들 to be able할 수 있는 to do that.
7
19165
3206
그래서 구분할 수 있게 해주는
몇 가지 방법을 알려드리려고 해요.
00:34
But before I do,
8
22395
1169
하지만 그 전에
00:35
I just want to clarify밝히다 which어느 numbers번호
I'm talking말하는 about here.
9
23588
2839
제가 말씀드릴 숫자들이
어떤 건지 명확히 짚고 넘어갈게요.
00:38
I'm not talking말하는 about claims청구 like,
10
26451
1635
"10명 중 9명의 여성이
00:40
"9 out of 10 women여자들 recommend권하다
this anti-aging노화 방지 cream크림."
11
28110
2449
안티에이징 크림을 추천한다."같은 걸
말하는 게 아니에요.
00:42
I think a lot of us always
roll our eyes at numbers번호 like that.
12
30583
2972
그런 숫자를 보면 많은 분들이
눈을 굴리시죠.
00:45
What's different다른 now is people
are questioning질문 statistics통계 like,
13
33579
2984
요새 와서 달라진 건 사람들이
이런 통계에 의문을 갖게 된 겁니다.
00:48
"The US unemployment실업
rate is five다섯 percent퍼센트."
14
36587
2014
"미국의 실업률은 5%다."
00:50
What makes~을 만든다 this claim청구 different다른 is
it doesn't come from a private은밀한 company회사,
15
38625
3516
이 주장이 특별한 이유는
사기업이 하는 말이 아니라
00:54
it comes온다 from the government정부.
16
42165
1388
정부가 한 말이기 때문입니다.
00:55
About 4 out of 10 Americans미국인
distrust불신 the economic간결한 data데이터
17
43577
3336
미국인 10명 중 4명이
정부에서 보고하는 경제적 데이터를
00:58
that gets도착 reported보고 된 by government정부.
18
46937
1573
신뢰하지 않습니다.
01:00
Among가운데 supporters후원자 of President대통령 Trump지우다
it's even higher더 높은;
19
48534
2491
이 비율은 트럼프 대통령
지지자들의 경우에는 더 높습니다.
01:03
it's about 7 out of 10.
20
51049
1633
10명 중에 7명이에요.
01:04
I don't need to tell anyone누군가 here
21
52706
1804
제가 굳이 말씀드리지 않아도
01:06
that there are a lot of dividing나누기 lines윤곽
in our society사회 right now,
22
54534
3011
지금 사회에 나누어진 선들이
많다는 건 다들 알고 있습니다.
01:09
and a lot of them start스타트 to make sense감각,
23
57569
1825
정부의 수치와 사람들 간의 관계를
01:11
once일단 you understand알다 people's사람들의 relationships관계
with these government정부 numbers번호.
24
59418
3687
이해하고나면 그 선들이
많이 말이 되기 시작합니다.
01:15
On the one hand, there are those who say
these statistics통계 are crucial결정적인,
25
63129
3336
반면에 통계가 매우 중요하다고
말하는 사람들도 있습니다.
01:18
that we need them to make sense감각
of society사회 as a whole완전한
26
66489
2630
사회를 전체적으로 이해하려면
필요하다고 말합니다.
01:21
in order주문 to move움직임 beyond...을 넘어서
emotional정서적 인 anecdotes일화
27
69143
2164
감정적인 진술들을 넘어
01:23
and measure법안 progress진행 in a subjective주걱 way.
28
71331
2410
발전을 객관적으로 측정하기 위해서요.
01:25
And then there are the others다른 사람,
29
73765
1467
그리고 또 다른 집단도 있습니다.
01:27
who say that these statistics통계 are elitist엘리트 주의자,
30
75256
2156
통계는 엘리트주의적이며
01:29
maybe even rigged조작 된;
31
77436
1208
조작됐다고까지도 말하고
01:30
they don't make sense감각
and they don't really reflect비추다
32
78668
2394
말도 안 되며
사람들의 일상에서 일어나는
01:33
what's happening사고
in people's사람들의 everyday매일 lives.
33
81086
2296
일들을 반영하지 않는다고 합니다.
01:35
It kind종류 of feels느낀다. like that second둘째 group그룹
is winning승리 the argument논의 right now.
34
83406
3487
두 번째 부류의 사람들의 주장이
이기고 있는 것 같긴 해요.
01:38
We're living생활 in a world세계
of alternative대안 facts사리,
35
86917
2108
우린 대안적 사실의 세상에 살고 있고
01:41
where people don't find statistics통계
this kind종류 of common공유지 ground바닥,
36
89049
2935
사람들은 통계를 공동 전제나
토론의 시작점으로
01:44
this starting출발 point포인트 for debate논쟁.
37
92008
1636
여기지 않습니다.
01:45
This is a problem문제.
38
93668
1286
이건 문제입니다.
01:46
There are actually사실은
moves움직임 in the US right now
39
94978
2067
사실 일부 정부 통계를
아예 없애자는 움직임이
01:49
to get rid구하다 of some government정부
statistics통계 altogether전부.
40
97069
2861
지금 존재합니다.
01:51
Right now there's a bill계산서 in congress대회
about measuring자질 racial인종 inequality불평등.
41
99954
3387
지금 의회에 인종 차별을 측정하는
것에 대한 법안이 있습니다.
01:55
The draft초안 law says말한다 that government정부
money should not be used
42
103365
2801
초안에 따르면 국고가
인종차별에 관한 데이터를 수집하는 데
01:58
to collect수집 data데이터 on racial인종 segregation분리.
43
106190
1902
쓰이면 안 된다고 하고 있습니다.
02:00
This is a total합계 disaster재앙.
44
108116
1885
정말 끔찍한 일이에요.
02:02
If we don't have this data데이터,
45
110025
1748
데이터 없이 어떻게
차별을 관찰할 수 있죠?
02:03
how can we observe관찰하다 discrimination차별,
46
111797
1778
02:05
let alone혼자 fix고치다 it?
47
113599
1278
게다가 어떻게 시정하죠?
02:06
In other words:
48
114901
1188
다시 말하면
02:08
How can a government정부 create몹시 떠들어 대다 fair공정한 policies정책들
49
116113
2059
정부가 현재의 불공정의 정도를
02:10
if they can't measure법안
current흐름 levels수준 of unfairness불공평?
50
118196
2771
측정할 수 없으면 어떻게 공정한
정책을 만들 수 있죠?
02:12
This isn't just about discrimination차별,
51
120991
1794
비단 차별만 문제인 것이 아닙니다.
02:14
it's everything -- think about it.
52
122809
1670
모든 게 문제예요. 생각해보세요.
02:16
How can we legislate입법부 on health건강 care케어
53
124503
1690
보건과 건강에 대한
양질의 데이터가 없으면
02:18
if we don't have good data데이터
on health건강 or poverty가난?
54
126217
2271
어떻게 의료보험 법을 제정할 수 있죠?
02:20
How can we have public공공의 debate논쟁
about immigration이주
55
128512
2198
얼마나 많은 사람들이
이 나라에 들어오고
02:22
if we can't at least가장 작은 agree동의하다
56
130734
1250
나가는지에 대해서도
02:24
on how many많은 people are entering들어가는
and leaving퇴거 the country국가?
57
132008
2643
의견이 일치하지 않는데 어떻게
공개 토론이 이루어질 수 있죠?
02:26
Statistics통계 come from the state상태;
that's where they got their그들의 name이름.
58
134675
3058
통계는 국가에서부터 나옵니다.
그게 통계의 어원이에요.
02:29
The point포인트 was to better
measure법안 the population인구
59
137757
2157
국민을 더 잘 섬기기 위해
더 잘 측정하는 것이
02:31
in order주문 to better serve서브 it.
60
139938
1357
목적이었습니다.
02:33
So we need these government정부 numbers번호,
61
141319
1725
그래서 정부의 수치가 필요합니다.
02:35
but we also또한 have to move움직임
beyond...을 넘어서 either어느 한 쪽 blindly맹목적으로 accepting받아들이는
62
143068
2647
하지만 맹목적으로
받아들이거나 반대하는 건
02:37
or blindly맹목적으로 rejecting거절하는 them.
63
145739
1268
넘어서야 합니다.
02:39
We need to learn배우다 the skills기술
to be able할 수 있는 to spot자리 bad나쁜 statistics통계.
64
147031
2997
잘못된 통계를 잡아내는
방법을 알아야 합니다.
02:42
I started시작한 to learn배우다 some of these
65
150052
1528
저는 그 중 일부를
02:43
when I was working
in a statistical통계상의 department학과
66
151604
2166
UN산하의 통계부서에서
일하면서 배웠습니다.
02:45
that's part부품 of the United유나이티드 Nations민족 국가.
67
153794
1643
02:47
Our job was to find out how many많은 Iraqis이라크 인
had been forced강요된 from their그들의 homes주택
68
155461
3406
저희 일은 이라크 전쟁으로 얼마나 많은
이라크인이 피난을 갔는지와
02:50
as a result결과 of the war전쟁,
69
158891
1158
무엇을 필요로 하는지를
02:52
and what they needed필요한.
70
160073
1158
알아내는 것이었습니다.
02:53
It was really important중대한 work,
but it was also또한 incredibly엄청나게 difficult어려운.
71
161255
3178
정말 중요한 일이었는데
동시에 매우 어려운 일이었습니다.
02:56
Every마다 single단일 day, we were making만들기 decisions결정들
72
164457
2018
매일 우리는 수치의 정확도에
영향을 미치는 결정들을 내렸습니다.
02:58
that affected체하는 the accuracy정확성
of our numbers번호 --
73
166499
2157
03:00
decisions결정들 like which어느 parts부분품
of the country국가 we should go to,
74
168680
2744
이라크의 어느 지역을 가야 할지
03:03
who we should speak말하다 to,
75
171448
1156
누구와 얘기할지
03:04
which어느 questions질문들 we should ask청하다.
76
172628
1568
어떤 질문을 물어야할지를요.
03:06
And I started시작한 to feel
really disillusioned환멸을 느낀 with our work,
77
174220
2680
그런데 저는 우리의 일에
환멸을 느끼기 시작했습니다.
03:08
because we thought we were doing
a really good job,
78
176924
2518
우리는 일을 잘하고
있다고 생각했었어요.
03:11
but the one group그룹 of people
who could really tell us were the Iraqis이라크 인,
79
179466
3278
그런데 그걸 정말 확인시켜줄 수 있는
사람은 이라크인들 뿐인데
03:14
and they rarely드물게 got the chance기회 to find
our analysis분석, let alone혼자 question문제 it.
80
182768
3540
그들은 우리 분석에 의문을 제기하는 건
고사하고 볼 기회도 거의 없었어요.
03:18
So I started시작한 to feel really determined결정된
81
186332
1831
그래서 저는 수치를 더 정확하게
만들어 줄 유일한 방법이
03:20
that the one way to make
numbers번호 more accurate정확한
82
188187
2311
03:22
is to have as many많은 people as possible가능한
be able할 수 있는 to question문제 them.
83
190522
3053
최대한 많은 사람들이 의문을 제기하게
하는 거라고 생각하게 됐어요.
03:25
So I became되었다 a data데이터 journalist기자.
84
193599
1434
그래서 저는 데이터 기자가 됐습니다.
03:27
My job is finding발견 these data데이터 sets세트
and sharing나누는 them with the public공공의.
85
195057
3904
제 일은 데이터 집합들을 찾아
대중에게 공유하는 것입니다.
03:30
Anyone누군가 can do this,
you don't have to be a geek괴짜 or a nerd얼간이.
86
198985
3173
공부벌레나 괴짜가 아니어도
누구나 할 수 있는 일이에요.
03:34
You can ignore무시하다 those words;
they're used by people
87
202182
2355
이 단어들은 무시하세요.
겸손한 척 하면서
03:36
trying견딜 수 없는 to say they're smart똑똑한
while pretending가짜 they're humble겸손한.
88
204561
2822
자기가 똑똑하다는 걸 말하려는
사람들이 쓰는 단어들이에요.
03:39
Absolutely전혀 anyone누군가 can do this.
89
207407
1589
정말 누구나 할 수 있어요.
03:41
I want to give you guys three questions질문들
90
209020
2067
잘못된 통계를 잡아내는 걸 도와주는
03:43
that will help you be able할 수 있는 to spot자리
some bad나쁜 statistics통계.
91
211111
3005
세 가지 질문을 여러분께
드리고 싶어요.
03:46
So, question문제 number번호 one
is: Can you see uncertainty불확실성?
92
214140
3507
첫 번째 질문, 불확실성이 보이시나요?
03:49
One of things that's really changed변경된
people's사람들의 relationship관계 with numbers번호,
93
217671
3364
사람과 숫자의 관계와,
사람들의 미디어에 대한 신뢰를
03:53
and even their그들의 trust믿음 in the media미디어,
94
221059
1641
바꾸어놓은 것 중 하나는
03:54
has been the use of political주재관 polls투표소.
95
222724
2258
정치 분야의 여론조사입니다.
03:57
I personally몸소 have a lot of issues문제
with political주재관 polls투표소
96
225006
2538
저는 개인적으로
여론조사에 불만이 많아요.
03:59
because I think the role역할 of journalists언론인
is actually사실은 to report보고서 the facts사리
97
227568
3376
기자의 역할은 사실을 보도하는 거지
예측하는 게 아니라고 생각하거든요.
04:02
and not attempt시도 to predict예측하다 them,
98
230968
1553
04:04
especially특히 when those predictions예측
can actually사실은 damage손해 democracy민주주의
99
232545
2996
특히나 그 예측들이
사람들에게 이런 신호를 주어
민주주의를 훼손할 수 있는 경우에는요.
04:07
by signaling신호 to people:
don't bother귀찮음 to vote투표 for that guy,
100
235565
2732
"저 사람한테 투표할 필요 없어.
가망이 없거든."
04:10
he doesn't have a chance기회.
101
238321
1205
04:11
Let's set세트 that aside곁에 for now and talk
about the accuracy정확성 of this endeavor노력.
102
239550
3654
하지만 그건 제쳐두고
여론조사의 정확성에 대해 얘기해봅시다.
04:15
Based기반 on national전국의 elections선거
in the UK영국, Italy이탈리아, Israel이스라엘
103
243228
4608
영국, 이탈리아, 이스라엘의 총선과
04:19
and of course코스, the most가장 recent충적세
US presidential대통령 election선거,
104
247860
2764
가장 최근에 있었던 미국 대선에
기반해서 볼 때
04:22
using~을 사용하여 polls투표소 to predict예측하다 electoral선거 outcomes결과
105
250648
2137
선거의 결과를 여론조사로 예측하는 건
04:24
is about as accurate정확한 as using~을 사용하여 the moon
to predict예측하다 hospital병원 admissions입학 허가.
106
252809
3812
달로 병원의 입원자 수를 점치는
것만큼이나 부정확합니다.
04:28
No, seriously진지하게, I used actual실제의 data데이터
from an academic학생 study연구 to draw무승부 this.
107
256645
4200
아니 정말 제가 학술 연구의
데이터로 도출한 결론이에요.
04:32
There are a lot of reasons원인 why
polling투표 has become지다 so inaccurate부정확 한.
108
260869
3727
여론조사가 부정확해진 데에는
많은 이유가 있습니다.
04:36
Our societies사회 have become지다 really diverse다양한,
109
264620
1970
우리 사회가 매우 다양해져서
04:38
which어느 makes~을 만든다 it difficult어려운 for pollsters여론 조사원
to get a really nice좋은 representative대리인 sample견본
110
266614
3821
여론조사원들이 여론 조사의
모집단에서 정말로 대표성 있는 표본을
04:42
of the population인구 for their그들의 polls투표소.
111
270459
1627
얻기가 매우 힘들어졌어요.
04:44
People are really reluctant싫어하는 to answer대답
their그들의 phones전화 to pollsters여론 조사원,
112
272110
3006
사람들은 여론조사원들의
전화를 받기 꺼려하고
04:47
and also또한, shockingly놀랍게도 enough충분히,
people might lie거짓말.
113
275140
2276
놀랍게도 거짓으로 답할 수도 있습니다.
04:49
But you wouldn't~ 않을거야. necessarily필연적으로
know that to look at the media미디어.
114
277440
2811
하지만 사람들은 보도자료를 볼 때
그걸 의식하진 않죠.
04:52
For one thing, the probability개연성
of a Hillary힐러리 Clinton클린턴 win승리
115
280275
2761
힐러리 클린턴이 우승할 확률은
04:55
was communicated전달 된 with decimal소수 places장소들.
116
283060
2791
소수점까지 계산됐었어요.
04:57
We don't use decimal소수 places장소들
to describe기술하다 the temperature온도.
117
285875
2621
소수점은 기온을 나타낼 때도 안 써요.
05:00
How on earth지구 can predicting예측하는 the behavior행동
of 230 million백만 voters유권자 in this country국가
118
288520
4228
그런데 어떻게 미국의 2억3천만
유권자의 행동을 예측하는 게
05:04
be that precise정확한?
119
292772
1829
그렇게 정확할 수 있죠?
05:06
And then there were those sleek매끄러운 charts차트.
120
294625
2002
번지르르한 도표도 있었죠.
05:08
See, a lot of data데이터 visualizations시각화
will overstate과장하다 certainty확실성, and it works공장 --
121
296651
3973
데이터를 시각화한 도표들은 많이들
확실성을 과장해요. 효과도 있고요.
05:12
these charts차트 can numb마비 된
our brains두뇌 to criticism비판.
122
300648
2620
차트들은 비판을
무디게 할 수 있습니다.
05:15
When you hear듣다 a statistic통계량,
you might feel skeptical의심 많은.
123
303292
2558
통계를 들으면 의심을 품을 수도 있지만
05:17
As soon as it's buried묻힌 in a chart차트,
124
305874
1635
차트로 나타내어지는 순간
05:19
it feels느낀다. like some kind종류
of objective목표 science과학,
125
307533
2129
객관적인 과학같이 느껴집니다.
05:21
and it's not.
126
309686
1249
그렇지 않은데도요.
05:22
So I was trying견딜 수 없는 to find ways
to better communicate소통하다 this to people,
127
310959
3103
그래서 저는 이 이야기를 사람들에게
더 잘 전달할 수 있고
05:26
to show보여 주다 people the uncertainty불확실성
in our numbers번호.
128
314086
2504
숫자의 불확실성을 보여줄 수 있는
방법을 찾으려 했어요.
05:28
What I did was I started시작한 taking취득
real레알 data데이터 sets세트,
129
316614
2246
그래서 저는 실제 데이터 모음을 갖다가
05:30
and turning선회 them into
hand-drawn손으로 그린 visualizations시각화,
130
318884
2652
손으로 그린 도표로 변환시켰어요.
05:33
so that people can see
how imprecise부정확 한 the data데이터 is;
131
321560
2672
사람들이 데이터가 얼마나
부정확한지 볼 수 있게요.
05:36
so people can see that a human인간의 did this,
132
324256
1996
인간이 이걸 그렸고
05:38
a human인간의 found녹이다 the data데이터 and visualized시각화 된 it.
133
326276
1972
인간이 데이터를 찾고 시각화했다고요.
05:40
For example, instead대신에
of finding발견 out the probability개연성
134
328272
2672
일례로 감기에 걸릴
월별 확률을 보는 것 대신에
05:42
of getting점점 the flu독감 in any given주어진 month,
135
330968
2126
05:45
you can see the rough거칠게
distribution분포 of flu독감 season시즌.
136
333118
2792
독감이 유행하는 철이 언젠지를
대략적으로 알 수 있죠.
05:47
This is --
137
335934
1167
이것은...
05:49
(Laughter웃음)
138
337125
1018
(웃음)
05:50
a bad나쁜 shot to show보여 주다 in February이월.
139
338167
1486
2월에 보여주기 나쁜 이미지죠.
05:51
But it's also또한 more responsible책임있는
data데이터 visualization심상,
140
339677
2455
하지만 동시에 더 책임감있는 도표예요.
05:54
because if you were to show보여 주다
the exact정확한 probabilities확률,
141
342156
2455
정확한 확률로 보여주면
05:56
maybe that would encourage북돋우다
people to get their그들의 flu독감 jabs
142
344635
2592
사람들이 잘못된 시기에
독감 예방주사를 맞도록
05:59
at the wrong잘못된 time.
143
347251
1456
장려할 수 있으니까요.
06:01
The point포인트 of these shaky흔들리는 lines윤곽
144
349163
1693
구불구불한 선으로 그린 이유는
06:02
is so that people remember생각해 내다
these imprecisions부정확,
145
350880
2911
사람들이 이 통계가
정확하진 않다는 걸 알게 하고
06:05
but also또한 so they don't necessarily필연적으로
walk산책 away with a specific특유한 number번호,
146
353815
3227
특정 숫자가 아닌
중요한 사실을 기억하도록
06:09
but they can remember생각해 내다 important중대한 facts사리.
147
357066
1866
하기 위해서입니다.
06:10
Facts사리 like injustice부당 and inequality불평등
leave휴가 a huge거대한 mark on our lives.
148
358956
4024
불의와 불평등같은 사실들은
우리 인생에 큰 자국을 남깁니다.
06:15
Facts사리 like Black검은 Americans미국인 and Native원주민
Americans미국인 have shorter더 짧은 life expectancies기대
149
363004
4189
흑인 미국인과 북미 원주민들이
다른 인종보다
06:19
than those of other races경마 대회,
150
367217
1400
수명이 더 짧으며,
06:20
and that isn't changing작고 보기 흉한 사람 anytime언제든지 soon.
151
368641
2138
이건 빠른 시일 내에 변하지
않을 거라는 사실도요.
06:22
Facts사리 like prisoners죄수 in the US
can be kept보관 된 in solitary외로운 confinement제한 cells세포들
152
370803
3901
미국의 죄수들이 주차장의
일반적인 크기보다
06:26
that are smaller더 작은 than the size크기
of an average평균 parking주차 space공간.
153
374728
3342
더 작은 독방에 수감될 수
있다는 사실도요.
06:30
The point포인트 of these visualizations시각화
is also또한 to remind생각 나게하다 people
154
378535
3335
이 도표들의 또 다른 요점은
사람들에게 매우 중요한
06:33
of some really important중대한
statistical통계상의 concepts개념들,
155
381894
2350
몇 가지 통계적 개념을
알려주기 위해서입니다.
06:36
concepts개념들 like averages평균.
156
384268
1636
평균같은 개념이요.
06:37
So let's say you hear듣다 a claim청구 like,
157
385928
1668
이런 주장을 듣는다고 생각해보세요.
06:39
"The average평균 swimming수영 pool in the US
contains포함하다 6.23 fecal배설물 accidents사고."
158
387620
4434
"미국의 수영장에는 평균적으로
6.23건의 배설물 사고가 일어난다."
06:44
That doesn't mean every...마다 single단일
swimming수영 pool in the country국가
159
392078
2797
이건 국내의 모든 수영장에
정확히 6.23개의 똥이
06:46
contains포함하다 exactly정확하게 6.23 turds.
160
394899
2194
들어있다는 걸 의미하는 게 아닙니다.
06:49
So in order주문 to show보여 주다 that,
161
397117
1417
그걸 증명하기 위해서
06:50
I went갔다 back to the original실물 data데이터,
which어느 comes온다 from the CDCCDC,
162
398558
2841
저는 미국 질병관리본부 출저의
47개 수영시설을 조사한
06:53
who surveyed조사한 47 swimming수영 facilities시설.
163
401423
2065
데이터 원본으로 돌아가서
06:55
And I just spent지출하다 one evening저녁
redistributing재배포 poop고물.
164
403512
2391
하룻밤 꼬박 똥을 재분배했어요.
06:57
So you can kind종류 of see
how misleading오도 ​​된 averages평균 can be.
165
405927
2682
평균이 얼마나 사람들을
오도할 수 있는지 볼 수 있죠.
07:00
(Laughter웃음)
166
408633
1282
(웃음)
07:01
OK, so the second둘째 question문제
that you guys should be asking질문 yourselves당신 자신들
167
409939
3901
잘못된 숫자를 발견하기 위해
스스로에게 물어야 할
07:05
to spot자리 bad나쁜 numbers번호 is:
168
413864
1501
두 번째 질문은 이겁니다.
07:07
Can I see myself자기 in the data데이터?
169
415389
1967
데이터 속에서 나를 볼 수 있는가?
07:09
This question문제 is also또한
about averages평균 in a way,
170
417380
2913
어떻게 보면 이 질문도
평균에 관한 거예요.
07:12
because part부품 of the reason이유
why people are so frustrated실망한
171
420317
2605
사람들이 국가적 통계에 대해
불만을 느끼는 이유 중의 하나가
07:14
with these national전국의 statistics통계,
172
422946
1495
07:16
is they don't really tell the story이야기
of who's누가 winning승리 and who's누가 losing지는
173
424465
3273
국가 정책으로 누가 이득을 얻고 있고
누가 손해를 보고 있는지 알 수가
07:19
from national전국의 policy정책.
174
427762
1156
없다는 것이니까요.
07:20
It's easy쉬운 to understand알다 why people
are frustrated실망한 with global글로벌 averages평균
175
428942
3318
사람들이 전세계 평균이
자신의 경험과 맞지 않을 때
07:24
when they don't match시합 up
with their그들의 personal개인적인 experiences경험담.
176
432284
2679
왜 불만스러워하는지는
쉽게 이해됩니다.
07:26
I wanted to show보여 주다 people the way
data데이터 relates관련 to their그들의 everyday매일 lives.
177
434987
3263
저는 데이터가 사람들의 일상에
어떻게 관련있는지를 보여주기 위해
07:30
I started시작한 this advice조언 column기둥
called전화 한 "Dear소중한 Mona모나,"
178
438274
2246
"모나에게"라는
고민 상담란을 만들었어요.
07:32
where people would write쓰다 to me
with questions질문들 and concerns우려
179
440544
2726
사람들이 제게 질문과 걱정을 적어보내면
07:35
and I'd try to answer대답 them with data데이터.
180
443294
1784
저는 데이터로 답을 해주었습니다.
07:37
People asked물었다 me anything.
181
445102
1200
제게 뭐든지 물어봤어요.
07:38
questions질문들 like, "Is it normal표준 to sleep자다
in a separate갈라진 bed침대 to my wife아내?"
182
446326
3261
"아내와 다른 침대에서
자는 게 정상인가요?"
07:41
"Do people regret유감 their그들의 tattoos문신?"
183
449611
1591
"사람들은 문신 새긴 걸 후회하나요?"
07:43
"What does it mean to die주사위
of natural자연스러운 causes원인?"
184
451226
2164
"자연사했다는 게 무슨 뜻이죠?"
07:45
All of these questions질문들 are great,
because they make you think
185
453414
2966
다 좋은 질문들이에요.
이 수치들과 소통할
07:48
about ways to find
and communicate소통하다 these numbers번호.
186
456404
2336
방법에 대해 생각해보게 하니까요.
07:50
If someone어떤 사람 asks묻다 you,
"How much pee오줌 is a lot of pee오줌?"
187
458764
2503
누군가가 "얼만큼이 오줌을
많이 싸는 건가요?"라고 물으면
07:53
which어느 is a question문제 that I got asked물었다,
188
461291
2458
실제로 제가 받았던 질문인데
07:55
you really want to make sure
that the visualization심상 makes~을 만든다 sense감각
189
463773
2980
그래프가 최대한 많은 사람들에게
이해되도록 노력해야 합니다.
07:58
to as many많은 people as possible가능한.
190
466777
1747
08:00
These numbers번호 aren't있지 않다. unavailable없는.
191
468548
1575
이 수치들은 찾을 수 있어요.
08:02
Sometimes때때로 they're just buried묻힌
in the appendix충수 of an academic학생 study연구.
192
470147
3507
때로는 학술 연구의 부록에 묻혀있죠.
08:05
And they're certainly확실히 not inscrutable헤아릴 수 없는;
193
473678
1839
그리고 절대 불가해하지 않아요.
08:07
if you really wanted to test테스트
these numbers번호 on urination배뇨 volume음량,
194
475541
2975
이 수치를 소변의 양에
테스트해보고 싶으면
08:10
you could grab그랩 a bottle
and try it for yourself당신 자신.
195
478540
2257
그냥 병을 가져다 직접 해보세요.
08:12
(Laughter웃음)
196
480821
1008
(웃음)
08:13
The point포인트 of this isn't necessarily필연적으로
197
481853
1694
이것의 요지는 모든 데이터 집단이
08:15
that every...마다 single단일 data데이터 set세트
has to relate말하다 specifically구체적으로 to you.
198
483571
2877
여러분과 특정한 연관성이
있어야 한다는 것이 아닙니다.
08:18
I'm interested관심있는 in how many많은 women여자들
were issued발행 된 fines벌금 in France프랑스
199
486472
2880
저는 프랑스에서 얼마나 많은 여성이
니캅을 쓴 것 때문에
08:21
for wearing착용 the face얼굴 veil베일, or the niqab니콰,
200
489376
1959
벌금을 물었는지에 관심이 있어요.
08:23
even if I don't live살고 있다 in France프랑스
or wear입고 있다 the face얼굴 veil베일.
201
491359
2618
제가 프랑스에 살고 있지 않고
니캅도 쓰지 않는데도요.
08:26
The point포인트 of asking질문 where you fit적당한 in
is to get as much context문맥 as possible가능한.
202
494001
3835
내가 어디에 들어맞는지를 묻는 이유는
최대한 많은 맥락을 얻기 위해서입니다.
08:29
So it's about zooming확대 out
from one data데이터 point포인트,
203
497860
2191
그래서 한 데이터 지점으로부터
멀리 떨어져서 봐야 합니다.
08:32
like the unemployment실업 rate
is five다섯 percent퍼센트,
204
500075
2104
일례로 실업률이 5%라면
08:34
and seeing how it changes변화들 over time,
205
502203
1757
이게 시간이 갈수록 어떻게 변하는지
08:35
or seeing how it changes변화들
by educational교육적인 status지위 --
206
503984
2650
학력에 따라 어떻게 변하는지
08:38
this is why your parents부모님 always
wanted you to go to college칼리지 --
207
506658
3104
참고로, 그래서 부모님들이
대학에 가라고 하는 겁니다.
08:41
or seeing how it varies변화하다 by gender성별.
208
509786
2032
또는 젠더에 따라 어떻게
다른지를 봐야하죠.
08:43
Nowadays현대, male남성 unemployment실업 rate is higher더 높은
209
511842
2127
요즘은 남성 실업률이
여성 실업률보다 높습니다.
08:45
than the female여자 unemployment실업 rate.
210
513993
1700
08:47
Up until...까지 the early이른 '80s,
it was the other way around.
211
515717
2695
80년대 초반까지는 반대였어요.
08:50
This is a story이야기 of one
of the biggest가장 큰 changes변화들
212
518436
2117
이건 미국 사회에 일어난
08:52
that's happened일어난 in American미국 사람 society사회,
213
520577
1720
가장 큰 변화 중 하나입니다.
08:54
and it's all there in that chart차트,
once일단 you look beyond...을 넘어서 the averages평균.
214
522321
3276
평균 너머를 보게 되면
도표 안에 다 들어있는 것입니다.
08:57
The axes are everything;
215
525621
1165
X축과 Y축이 전부예요.
08:58
once일단 you change변화 the scale규모,
you can change변화 the story이야기.
216
526810
2669
규모를 바꾸면 이야기가 달라집니다.
09:01
OK, so the third제삼 and final결정적인 question문제
that I want you guys to think about
217
529503
3380
통계를 볼 때
여러분이 생각해보길 바라는
09:04
when you're looking at statistics통계 is:
218
532907
1819
세 번째이자 마지막 질문은 이겁니다.
09:06
How was the data데이터 collected모은?
219
534750
1873
어떻게 데이터를 수집했지?
09:09
So far멀리, I've only talked말한 about the way
data데이터 is communicated전달 된,
220
537667
2939
여태까지 저는 데이터가 전달되는
방식에 대해서만 말했어요.
09:12
but the way it's collected모은
matters사안 just as much.
221
540630
2276
하지만 수집되는 방식도
똑같이 중요합니다.
09:14
I know this is tough강인한,
222
542930
1167
이게 어렵다는 거 알아요.
09:16
because methodologies방법론 can be opaque불투명체
and actually사실은 kind종류 of boring지루한,
223
544121
3081
방법론이 불분명하거나
사실 약간 지루할 수 있거든요.
09:19
but there are some simple단순한 steps걸음
you can take to check검사 this.
224
547226
2873
하지만 이걸 확인하는 데 쓸 수 있는
간단한 방법이 있습니다.
09:22
I'll use one last example here.
225
550123
1839
마지막 예시를 여기서 들게요.
09:24
One poll투표 found녹이다 that 41 percent퍼센트 of Muslims무슬림
in this country국가 support지원하다 jihad성전,
226
552309
3887
한 여론조사에서 국내 무슬림의 41%가
지하드를 지지한다는 걸 발견했어요.
09:28
which어느 is obviously명백하게 pretty예쁜 scary무서운,
227
556220
1525
매우 무서운 일이죠.
09:29
and it was reported보고 된 everywhere어디에나 in 2015.
228
557769
2642
2015년에 전국적으로 발표됐어요.
09:32
When I want to check검사 a number번호 like that,
229
560435
2615
이런 수치를 체크해보고 싶을 때
09:35
I'll start스타트 off by finding발견
the original실물 questionnaire질문 사항.
230
563074
2501
저는 먼저 설문지 원본을 찾아보아요.
09:37
It turns회전 out that journalists언론인
who reported보고 된 on that statistic통계량
231
565599
2926
이 통계를 보고한 기자들은
설문지 하단에 위치한
09:40
ignored무시당한 a question문제
lower보다 낮은 down on the survey측량
232
568549
2231
응답자에게 자신이 "지하드"를
어떻게 정의하는지를
09:42
that asked물었다 respondents응답자
how they defined한정된 "jihad성전."
233
570804
2346
물어본 질문을 무시했더군요.
09:45
And most가장 of them defined한정된 it as,
234
573174
1981
대부분의 사람들이 이렇게 정의했어요.
09:47
"Muslims'이슬람교도 ' personal개인적인, peaceful평화로운 struggle노력
to be more religious종교적인."
235
575179
3942
"더 독실해지기 위한
무슬림의 개인적이고 평화적인 투쟁."
09:51
Only 16 percent퍼센트 defined한정된 it as,
"violent격렬한 holy거룩한 war전쟁 against반대 unbelievers불신자들."
236
579145
4194
16%만이 이렇게 정의했어요.
"이교도들과의 폭력적인 성전."
09:55
This is the really important중대한 point포인트:
237
583363
2430
이게 진짜 중요한 사실인데요.
09:57
based기반 on those numbers번호,
it's totally전적으로 possible가능한
238
585817
2155
이 통계에 기반했을 때
설문지에서 지하드를
09:59
that no one in the survey측량
who defined한정된 it as violent격렬한 holy거룩한 war전쟁
239
587996
3105
폭력적인 성전이라고 답한 사람 중
그 누구도 그걸 지지한다고 하지 않았을
10:03
also또한 said they support지원하다 it.
240
591125
1332
가능성이 존재해요.
10:04
Those two groups여러 떼 might not overlap중첩하다 at all.
241
592481
2208
두 집합의 교집합이
아예 없을 수 있어요.
10:07
It's also또한 worth가치 asking질문
how the survey측량 was carried운반 된 out.
242
595122
2637
설문조사가 어떻게 실행됐는지를
물어보는 것도 좋습니다.
10:09
This was something called전화 한 an opt-in옵트 poll투표,
243
597783
1998
이건 옵트인 설문조사였어요.
10:11
which어느 means방법 anyone누군가 could have found녹이다 it
on the internet인터넷 and completed완료된 it.
244
599805
3402
누구나 인터넷에서 보고
응답할 수 있었다는 뜻입니다.
10:15
There's no way of knowing
if those people even identified확인 된 as Muslim이슬람교도.
245
603231
3339
이 사람들이 애초에 무슬림조차
알 방법이 없어요.
10:18
And finally마침내, there were 600
respondents응답자 in that poll투표.
246
606594
2612
마지막으로 이 설문조사의
응답자 수는 600명이었습니다.
10:21
There are roughly대충 three million백만
Muslims무슬림 in this country국가,
247
609230
2654
퓨 연구센터에 따르면
국내에는 약 300만명의
10:23
according~에 따라 to Pew좌석 Research연구 Center센터.
248
611908
1607
무슬림이 있습니다.
10:25
That means방법 the poll투표 spoke to roughly대충
one in every...마다 5,000 Muslims무슬림
249
613539
2993
이 말은 여론조사가 대략
5000명의 무슬림 중 한 명 꼴로
10:28
in this country국가.
250
616556
1168
조사했다는 겁니다.
10:29
This is one of the reasons원인
251
617748
1266
그렇기 때문에
10:31
why government정부 statistics통계
are often자주 better than private은밀한 statistics통계.
252
619038
3607
국가 통계가 때로는
사설 통계보다 낫습니다.
10:34
A poll투표 might speak말하다 to a couple
hundred people, maybe a thousand,
253
622669
3035
여론조사는 200명 정도를 조사합니다.
1000명일 때도 있어요.
10:37
or if you're L'Oreal로레알, trying견딜 수 없는 to sell팔다
skin피부 care케어 products제작품 in 2005,
254
625728
3058
2005년에 스킨 케어 제품을
판매하려고 했던 로레알은
10:40
then you spoke to 48 women여자들
to claim청구 that they work.
255
628810
2417
48명의 여성을 조사하고
효과가 있다고 주장했죠.
10:43
(Laughter웃음)
256
631251
1026
(웃음)
10:44
Private은밀한 companies회사들 don't have a huge거대한
interest관심 in getting점점 the numbers번호 right,
257
632301
3556
사기업은 올바른 수치를 얻는 데에는
그다지 큰 관심이 없어요.
10:47
they just need the right numbers번호.
258
635881
1755
자기가 원하는 숫자가 필요한거죠.
10:49
Government정부 statisticians통계 학자 aren't있지 않다. like that.
259
637660
2020
정부 통계는 그렇지 않아요.
10:51
In theory이론, at least가장 작은,
they're totally전적으로 impartial공평한,
260
639704
2447
적어도 이론상으로는 완전히 공평해요.
10:54
not least가장 작은 because most가장 of them do
their그들의 jobs일자리 regardless관계없이 of who's누가 in power.
261
642175
3501
누가 권력을 갖게 되든 대부분이 그냥
자기 일을 하는 것도 한 이유예요.
10:57
They're civil예의 바른 servants하인.
262
645700
1162
공무원이니까요.
10:58
And to do their그들의 jobs일자리 properly정확히,
263
646886
1964
자기 일을 제대로 하려면
11:00
they don't just speak말하다
to a couple hundred people.
264
648874
2363
200명만 설문조사하지 않아요.
11:03
Those unemployment실업 numbers번호
I keep on referencing참조
265
651261
2318
제가 자꾸 언급하는 이 실업률 수치는
11:05
come from the Bureau of Labor노동 Statistics통계,
266
653603
2004
노동통계청에서 발표한 거예요.
11:07
and to make their그들의 estimates견적,
267
655631
1335
이 수치를 계산하기 위해
11:08
they speak말하다 to over 140,000
businesses사업 in this country국가.
268
656990
3489
노동통계청은 14만 개가 넘는
국내 사업장을 조사합니다.
11:12
I get it, it's frustrating실망한.
269
660503
1725
알아요, 정말 짜증나죠.
11:14
If you want to test테스트 a statistic통계량
that comes온다 from a private은밀한 company회사,
270
662252
3115
사기업에서 발표한 통계를
시험해보고 싶다면
11:17
you can buy사다 the face얼굴 cream크림 for you
and a bunch다발 of friends친구, test테스트 it out,
271
665391
3361
친구들과 직접 로션을 사서
발라보면 됩니다.
11:20
if it doesn't work,
you can say the numbers번호 were wrong잘못된.
272
668776
2591
효과가 없으면 통계가
틀렸다고 말할 수 있어요.
11:23
But how do you question문제
government정부 statistics통계?
273
671391
2146
그런데 정부 통계는 어떻게
의문을 제기하죠?
11:25
You just keep checking확인 everything.
274
673561
1630
모든 것을 계속 확인하는 겁니다.
11:27
Find out how they collected모은 the numbers번호.
275
675215
1913
수치를 어떻게 수집했는지
11:29
Find out if you're seeing everything
on the chart차트 you need to see.
276
677152
3125
내가 도표에서 봐야 할 모든 것을
다 보고 있는지를 알아내세요.
11:32
But don't give up on the numbers번호
altogether전부, because if you do,
277
680301
2965
하지만 수치 일체를 포기하진 마세요.
11:35
we'll be making만들기 public공공의 policy정책
decisions결정들 in the dark어두운,
278
683290
2439
그렇게 되면 사익이 알려주는
방향만 사용하면서
11:37
using~을 사용하여 nothing but private은밀한
interests이해 to guide안내서 us.
279
685753
2262
무지 속에서 공공정책을
만들고 있게 될 테니까요.
11:40
Thank you.
280
688039
1166
고맙습니다.
11:41
(Applause박수 갈채)
281
689229
2461
(박수)
Translated by Ju Hye Lim
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Mona Chalabi - Data journalist
Mona Chalabi tries to take the numb out of numbers. She's left with lots of "ers."

Why you should listen

After working for a humanitarian organisation, Mona Chalabi saw how important data was, but also how easily it could be used by people with their own specific agendas. Since then, her work for organizations like Transparency International and The Guardian has had one goal: to make sure as many people as possible can find and question the data they need to make informed decisions about their lives.

Chalabi is currently the Data Editor of the Guardian US, where she writes articles, produces documentaries and turns data into illustrations and animations. In 2016, her data illustrations were commended by the Royal Statistical Society.

More profile about the speaker
Mona Chalabi | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee