ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com
TEDGlobal 2005

Peter Donnelly: How juries are fooled by statistics

피터 도넬리가 통계가 어떻게 배심원들을 속이는지를 보여줍니다.

Filmed:
1,279,860 views

옥스포드의 수학자인 피터 도넬리가 사람들이 통계 결과를 해석할 때 자주 저지르는 잘못들과 이러한 오류들이 범죄 공판의 결과에 미치는 엄청난 효과를 폭로합니다.
- Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom. Full bio

Double-click the English transcript below to play the video.

00:25
As other speakers연설자 have said, it's a rather차라리 daunting발굴 experience경험 --
0
0
2000
다른 연설자께서 말씀하신 것처럼, 이건 상당히 기죽을만한 경험이군요.
00:27
a particularly특별히 daunting발굴 experience경험 -- to be speaking말하기 in front of this audience청중.
1
2000
3000
특히 여러분과 같은 청중들 앞에서 발표를 하는 건, 특히 위축될만한 경험입니다.
00:30
But unlike같지 않은 the other speakers연설자, I'm not going to tell you about
2
5000
3000
그럼에도, 다른 연설자들과 달리, 저는 여러분에게
00:33
the mysteries신비 of the universe우주, or the wonders경이 of evolution진화,
3
8000
2000
우주의 신비나, 또는 진화의 경이로움,
00:35
or the really clever영리한, innovative혁신적인 ways people are attacking공격의
4
10000
4000
또는 사람들이 우리 세계의 심각한 불평등들을 공략하고자 하기 위한
00:39
the major주요한 inequalities불평등 in our world세계.
5
14000
2000
정말로 지혜롭고 혁신적인 방안들에 대해서 얘기하진 않을 것입니다.
00:41
Or even the challenges도전 of nation-states국민 국가 in the modern현대 global글로벌 economy경제.
6
16000
5000
또는 현대 글로벌 경제에서 민족국가들이 직면한 문제들에 대해서도 얘기하지 않을 것입니다.
00:46
My brief간결한, as you've just heard들었던, is to tell you about statistics통계 --
7
21000
4000
여러분이 방금 들은 것처럼, 전 간단히 여러분께 통계학에 대해 말씀드리고
00:50
and, to be more precise정확한, to tell you some exciting흥미 진진한 things about statistics통계.
8
25000
3000
그리고, 정확히 말하자면, 여러분께 통계학에 관한 재미있는 것들을 알려드리겠습니다.
00:53
And that's --
9
28000
1000
그리고 그건
00:54
(Laughter웃음)
10
29000
1000
(웃음)
00:55
-- that's rather차라리 more challenging도전적인
11
30000
2000
그건 약간 더 난감한 것입니다.
00:57
than all the speakers연설자 before me and all the ones그들 coming오는 after me.
12
32000
2000
저보다 먼저 연설했던 모든 사람들과 앞으로 연설할 모든 사람들보다도 말입니다.
00:59
(Laughter웃음)
13
34000
1000
(웃음)
01:01
One of my senior연장자 colleagues동료들 told me, when I was a youngster어린이 in this profession직업,
14
36000
5000
제가 이 분야에서 초보자였을때, 선배 중 한명이 저에게 이렇게 말했습니다.
01:06
rather차라리 proudly자랑스럽게, that statisticians통계 학자 were people who liked좋아했다 figures인물
15
41000
4000
상당히 자랑스럽게 말하기를, 통계학자들은 수치를 좋아하는 사람들인데
01:10
but didn't have the personality인격 skills기술 to become지다 accountants회계사.
16
45000
3000
그들은 회계사가 될만한 사교성은 가지고 있지 않다고 말이죠.
01:13
(Laughter웃음)
17
48000
2000
(웃음)
01:15
And there's another다른 in-joke농담 among사이에 statisticians통계 학자, and that's,
18
50000
3000
그리고 통계학자들에 대한 그들만의 다른 농담도 있는 데요.
01:18
"How do you tell the introverted내향적인 statistician통계 학자 from the extroverted외향적 인 statistician통계 학자?"
19
53000
3000
"내성적인 통계학자와 외향적인 통계학자를 어떻게 구별하는지 아십니까?"
01:21
To which어느 the answer대답 is,
20
56000
2000
답은 말이죠.
01:23
"The extroverted외향적 인 statistician's통계 학자 the one who looks외모 at the other person's shoes구두."
21
58000
5000
외향적인 통계학자는 다른 사람의 신발까지는 쳐다볼 수 있다는 겁니다.
01:28
(Laughter웃음)
22
63000
3000
(웃음)
01:31
But I want to tell you something useful유능한 -- and here it is, so concentrate집중 now.
23
66000
5000
그렇지만, 전 여러분에게 뭔가 유용한 걸 얘기하고 싶고 -- 그걸 가지고 왔습니다. 그러니, 이젠 집중해 주시기 바랍니다.
01:36
This evening저녁, there's a reception수신 in the University's대학 Museum박물관 of Natural자연스러운 History역사.
24
71000
3000
오늘 저녁, 대학의 자연사 박물관에서 리셉션이 있습니다.
01:39
And it's a wonderful훌륭한 setting환경, as I hope기대 you'll find,
25
74000
2000
그리고, 그건 매우 훌륭하게 준비되어 있다는 걸, 여러분들도 알게 되길 원합니다.
01:41
and a great icon to the best베스트 of the Victorian빅토리아 주의 tradition전통.
26
76000
5000
그리고 그건 빅토리아 시대의 전통 중 최고 수준의 표상입니다.
01:46
It's very unlikely있을 것 같지 않게 -- in this special특별한 setting환경, and this collection수집 of people --
27
81000
5000
이렇게 특별한 설정과 사람들의 모임에서 -- 잘 발생할 거 같지 않은 일이지만
01:51
but you might just find yourself당신 자신 talking말하는 to someone어떤 사람 you'd당신은 rather차라리 wish소원 that you weren't하지 않았다.
28
86000
3000
당신은, 당신이 별로 얘기하고 싶어하지 않는 사람과 얘기하게 된다고 합시다.
01:54
So here's여기에 what you do.
29
89000
2000
그런 경우, 당신은 이렇게 할 수 있습니다.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician통계 학자."
30
91000
4000
그들이 당신에게 "직업이 뭡니까"라고 물었을 때, "통계학자입니다"라고 대답하는 거죠.
02:00
(Laughter웃음)
31
95000
1000
(웃음)
02:01
Well, except they've그들은 been pre-warned미리 경고 한 now, and they'll그들은 할 것이다 know you're making만들기 it up.
32
96000
4000
뭐... 다만.. 여기서 예외는 그들이 이러한 상황에 대해 미리 주의를 했고, 당신이 거짓말을 했다는 사실을 눈치채는 경우겠죠.
02:05
And then one of two things will happen우연히 있다.
33
100000
2000
아무튼 그런 대답을 듣고 나면, 다음 두가지 중 하나가 발생할 겁니다.
02:07
They'll그들은 할 것이다 either어느 한 쪽 discover발견하다 their그들의 long-lost길 잃은 cousin사촌 in the other corner모서리 of the room
34
102000
2000
그들은 갑자기 방의 한 구석에서 오랜동안 헤어졌던 사촌을 발견하고
02:09
and run운영 over and talk to them.
35
104000
2000
그 사촌에게 달려가서 얘기를 한다든지...
02:11
Or they'll그들은 할 것이다 suddenly갑자기 become지다 parched말라 있는 and/or hungry배고픈 -- and often자주 both양자 모두 --
36
106000
3000
아니면, 갑자기 목이 마르거나 배가 고파지거나 -- 때로는 둘 다가 되서 --
02:14
and sprint스프린트 off for a drink음주 and some food식품.
37
109000
2000
물을 마시고 음식을 먹기 위해 달려가겠죠.
02:16
And you'll be left in peace평화 to talk to the person사람 you really want to talk to.
38
111000
4000
그리고 당신은 다시 평화롭게 남겨져서, 당신이 정말 대화하고 싶은 사람과 대화를 할 수 있게 됩니다.
02:20
It's one of the challenges도전 in our profession직업 to try and explain설명 what we do.
39
115000
3000
이게 바로 우리같은 직업을 가진 사람들이 우리가 뭘 하는지 설명하려면 받게 되는 도전입니다.
02:23
We're not top상단 on people's사람들의 lists기울기 for dinner공식 만찬 party파티 guests손님 and conversations대화 and so on.
40
118000
5000
우리는 디너 파티 초대 손님이나 대화 상대 등등의 리스트에서, 상위에 있는 인기있는 사람들은 아닙니다.
02:28
And it's something I've never really found녹이다 a good way of doing.
41
123000
2000
그리고 이러한 문제는 저로서는 절대 좋은 해결 방법을 찾아내지 못하는 것이기도 합니다.
02:30
But my wife아내 -- who was then my girlfriend여자 친구 --
42
125000
3000
그런데, 제 아내는 -- 당시에는 여자 친구였는데요. --
02:33
managed관리되는 it much better than I've ever been able할 수 있는 to.
43
128000
3000
결국 제가 할 수 있는 것보다 더 나은 방법을 찾아냈습니다.
02:36
Many많은 years연령 ago...전에, when we first started시작한 going out, she was working for the BBCBBC in Britain영국,
44
131000
3000
오래 전에, 우리가 처음 데이트를 하기 시작했을 때, 그녀는 영국의 BBC에서 일하고 있었습니다.
02:39
and I was, at that stage단계, working in America미국.
45
134000
2000
그리고 그 당시 저는 미국에서 일하고 있었죠.
02:41
I was coming오는 back to visit방문 her.
46
136000
2000
제가 여자친구를 만나기 위해 돌아왔는데요.
02:43
She told this to one of her colleagues동료들, who said, "Well, what does your boyfriend남자 친구 do?"
47
138000
6000
그녀가 이 사실을 동료에게 말하자, 동료는 "음, 네 남자친구는 뭐하는 사람인데?"라고 물었습니다.
02:49
Sarah사라 thought quite아주 hard단단한 about the things I'd explained설명하다 --
48
144000
2000
사라는 제가 설명했던 것들을 매우 열심히 생각했죠.
02:51
and she concentrated집중된, in those days, on listening청취.
49
146000
4000
그녀는, 적어도 그 당시에는, 제 말을 집중해서 들었었습니다.
02:55
(Laughter웃음)
50
150000
2000
(웃음)
02:58
Don't tell her I said that.
51
153000
2000
제가 이렇게 얘기했다고 사라에게 말하지 마세요.
03:00
And she was thinking생각 about the work I did developing개발 중 mathematical매우 정확한 models모델
52
155000
4000
그리고, 그녀는 제가 개발하고 있는 수학적 모델들에 관한 작업에 대해 생각했죠.
03:04
for understanding이해 evolution진화 and modern현대 genetics유전학.
53
159000
3000
그 수학적 모델들은 진화와 현대 유전학을 이해하기 위한 것들이었습니다.
03:07
So when her colleague동료 said, "What does he do?"
54
162000
3000
따라서, 그녀의 동료가 "네 남자친구는 뭐하는 사람이야?"라고 묻자,
03:10
She paused일시 중지 된 and said, "He models모델 things."
55
165000
4000
그녀는 잠시 생각하고는 이렇게 말했습니다. "그 사람은 뭔가 모델링하는 사람이야."
03:14
(Laughter웃음)
56
169000
1000
(웃음)
03:15
Well, her colleague동료 suddenly갑자기 got much more interested관심있는 than I had any right to expect배고 있다
57
170000
4000
음, 그 동료는 갑자기 제가 예상할 수 있는 것보다 훨씬 더 흥미를 느꼈습니다.
03:19
and went갔다 on and said, "What does he model모델?"
58
174000
3000
그래서 계속해서 말했죠. "그 사람은 뭘 모델링하는 데?"
03:22
Well, Sarah사라 thought a little bit비트 more about my work and said, "Genes유전자."
59
177000
3000
뭐, 사라는 제가 하는 작업에 대해 더 생각해 보고는 이렇게 말했습니다. "유전자들".
03:25
(Laughter웃음)
60
180000
4000
(웃음)
03:29
"He models모델 genes유전자."
61
184000
2000
"그는 유전자들을 모델링해."
03:31
That is my first love, and that's what I'll tell you a little bit비트 about.
62
186000
4000
이게 바로 제 첫사랑 얘기이고, 제가 여러분에게 약간 얘기하게 될 것입니다.
03:35
What I want to do more generally일반적으로 is to get you thinking생각 about
63
190000
4000
제가 좀더 일반적으로 하고 싶은 것은 여러분이 생각하게 하고 싶습니다.
03:39
the place장소 of uncertainty불확실성 and randomness무작위성 and chance기회 in our world세계,
64
194000
3000
우리 세계 안의 불확실성(uncertainty)과 무작위성(randomness) 그리고 가능성(chance)의 장소에 대해서 말입니다.
03:42
and how we react반응하다 to that, and how well we do or don't think about it.
65
197000
5000
그리고 우리가 그것에 대해 어떻게 반응하는지, 그리고 우리가 그것을 얼마나 잘 또는 잘못 생각하는지에 대해서 말입니다.
03:47
So you've had a pretty예쁜 easy쉬운 time up till까지 now --
66
202000
2000
자, 지금까지는 여러분에게 매우 쉬웠습니다.
03:49
a few조금 laughs웃음, and all that kind종류 of thing -- in the talks회담 to date날짜.
67
204000
2000
본 발표에서 지금까지는, 약간 웃고, 뭐 그런 것들이었습니다.
03:51
You've got to think, and I'm going to ask청하다 you some questions질문들.
68
206000
3000
여러분은 이제 생각해야 합니다. 그리고 저는 여러분에게 몇가지 질문을 하겠습니다.
03:54
So here's여기에 the scene장면 for the first question문제 I'm going to ask청하다 you.
69
209000
2000
여기에 제가 여러분에게 드리는 첫번째 질문이 있습니다.
03:56
Can you imagine상상하다 tossing외부 a coin동전 successively연속적으로?
70
211000
3000
동전을 계속해서 던지는 경우를 상상할 수 있겠습니까?
03:59
And for some reason이유 -- which어느 shall하여야 한다 remain남아있는 rather차라리 vague막연한 --
71
214000
3000
그리고 뭔가 모호하게 남아있을 이유 때문에
04:02
we're interested관심있는 in a particular특별한 pattern무늬.
72
217000
2000
우리는 특정 패턴에 관심을 가지고 있다고 합시다.
04:04
Here's여기에 one -- a head머리, followed뒤따른 by a tail꼬리, followed뒤따른 by a tail꼬리.
73
219000
3000
하나는 앞면(head), 뒷면(tail), 뒷면(tail)이 나오는 경우입니다.
04:07
So suppose가정하다 we toss던져 올림 a coin동전 repeatedly자꾸.
74
222000
3000
즉 우리가 동전을 계속해서 던진다고 합시다.
04:10
Then the pattern무늬, head-tail-tail머리 꼬리 꼬리, that we've우리는 suddenly갑자기 become지다 fixated고정 된 with happens일이 here.
75
225000
5000
그러면, 그 패턴, 앞뒤뒤, 즉 HTT가 나오는 여기에서 우리가 갑자기 고정됩니다.
04:15
And you can count카운트: one, two, three, four, five다섯, six, seven일곱, eight여덟, nine아홉, 10 --
76
230000
4000
그러면 여러분은 이렇게 셀 수 있지요: 하나, 둘, 셋, 넷, 다섯, 여섯, 일곱, 여덟, 아홉, 열 --
04:19
it happens일이 after the 10th toss던져 올림.
77
234000
2000
즉 이 패턴은 10 번째 던졌을 때 나왔습니다.
04:21
So you might think there are more interesting재미있는 things to do, but humor기분 me for the moment순간.
78
236000
3000
따라서, 여러분들은 아마 이런 거보다는 뭔가 더 재미있는 일이 있겠지 하고 생각하시겠지만, 일단 제 비위를 좀 더 맞춰 주시기 바랍니다.
04:24
Imagine상상해 보라. this half절반 of the audience청중 each마다 get out coins동전, and they toss던져 올림 them
79
239000
4000
여기 청중분들 중 절반이 각각 동전을 꺼내들고 던진다고 합시다.
04:28
until...까지 they first see the pattern무늬 head-tail-tail머리 꼬리 꼬리.
80
243000
3000
HTT 패턴이 나올 때까지 반복해서 던져 봅니다.
04:31
The first time they do it, maybe it happens일이 after the 10th toss던져 올림, as here.
81
246000
2000
처음에는 여기서처럼 아마 10번째에 그런 패턴이 나오겠죠.
04:33
The second둘째 time, maybe it's after the fourth네번째 toss던져 올림.
82
248000
2000
두번째에는 네번째에서 그런 패턴이 나옵다고 합시다.
04:35
The next다음 것 time, after the 15th toss던져 올림.
83
250000
2000
다음에는 15번째...
04:37
So you do that lots and lots of times타임스, and you average평균 those numbers번호.
84
252000
3000
즉, 여러분은 이런 실험을 여러번 해보고는 몇번째에 나오는지에 대한 숫자들의 평균을 내봅니다.
04:40
That's what I want this side측면 to think about.
85
255000
3000
즉, 여러분들 중 이 쪽 절반은 이러한 실험에 대해 생각을 해보길 바랍니다.
04:43
The other half절반 of the audience청중 doesn't like head-tail-tail머리 꼬리 꼬리 --
86
258000
2000
이제 여러분들 중 다른 절반은 HTT 패턴을 싫어한다고 합시다.
04:45
they think, for deep깊은 cultural문화적 reasons원인, that's boring지루한 --
87
260000
3000
다른 절반인 여러분들은 심오한 문화적인 차이 때문에 HTT 패턴은 매우 따분하다고 생각합니다.
04:48
and they're much more interested관심있는 in a different다른 pattern무늬 -- head-tail-head머리 꼬리 머리.
88
263000
3000
그리고 다른 패턴에 매우 관심이 많습니다. -- HTH 즉 앞뒤앞 입니다.
04:51
So, on this side측면, you get out your coins동전, and you toss던져 올림 and toss던져 올림 and toss던져 올림.
89
266000
3000
따라서 다른 한 쪽에서 여러분은 동전을 꺼내서, 던지고, 던지고, 또 던집니다.
04:54
And you count카운트 the number번호 of times타임스 until...까지 the pattern무늬 head-tail-head머리 꼬리 머리 appears등장하다
90
269000
3000
그리고 HTH 패턴이 처음 나오는 때의 횟수를 세고요.
04:57
and you average평균 them. OK?
91
272000
3000
그것들의 평균을 내는 겁니다. 아시겠죠?
05:00
So on this side측면, you've got a number번호 --
92
275000
2000
따라서 이 쪽에서 여러분들은 평균값 하나을 얻었고 --
05:02
you've done끝난 it lots of times타임스, so you get it accurately정확히 --
93
277000
2000
여러분들은 이 실험을 충분히 매우 많이 했다고 합시다. 따라서 그 값은 정확하겠죠.
05:04
which어느 is the average평균 number번호 of tosses토스 until...까지 head-tail-tail머리 꼬리 꼬리.
94
279000
3000
그 값은 HTT (앞뒤뒤) 패턴이 처음 발생하는 동전 던지기 횟수의 평균입니다.
05:07
On this side측면, you've got a number번호 -- the average평균 number번호 of tosses토스 until...까지 head-tail-head머리 꼬리 머리.
95
282000
4000
다른 쪽에서는, HTH (앞뒤앞) 패턴이 처음 나오는 동전 던지기 회수의 평균값을 얻었습니다.
05:11
So here's여기에 a deep깊은 mathematical매우 정확한 fact --
96
286000
2000
자 여기에 수학적으로 심오한 사실 하나가 있습니다.
05:13
if you've got two numbers번호, one of three things must절대로 필요한 것 be true참된.
97
288000
3000
두 개의 숫자가 있으므로, 다음 세 가지 중 하나가 사실이어야 합니다.
05:16
Either어느 한 쪽 they're the same같은, or this one's사람의 bigger더 큰 than this one,
98
291000
3000
그 두 숫자가 같거나, 아니면 이것이 요것보다 크거나,
05:19
or this one's사람의 bigger더 큰 than that one.
99
294000
1000
아니면 요것이 이것보다 커야 합니다.
05:20
So what's going on here?
100
295000
3000
자, 어떨까요?
05:23
So you've all got to think about this, and you've all got to vote투표 --
101
298000
2000
여러분 모두 이것에 대해 생각해 보시고, 투표를 합시다.
05:25
and we're not moving움직이는 on.
102
300000
1000
그리고, 여기서 더이상 진도를 안나갑니다.
05:26
And I don't want to end종료 up in the two-minute2 분 silence침묵
103
301000
2000
그리고 여러분 모두가 의사를 표명하도록 여러분에게 시간을 더 주고
05:28
to give you more time to think about it, until...까지 everyone's모두의 expressed표현 된 a view전망. OK.
104
303000
4000
대신 저는 2분이 넘게 침묵하고 있고 싶지는 않군요. 괜찮죠?
05:32
So what you want to do is compare비교 the average평균 number번호 of tosses토스 until...까지 we first see
105
307000
4000
따라서 여러분이 할 일은 HTH를 처음 보게 되는 동전 던지기 회수의 평균과
05:36
head-tail-head머리 꼬리 머리 with the average평균 number번호 of tosses토스 until...까지 we first see head-tail-tail머리 꼬리 꼬리.
106
311000
4000
HTT를 처음 보게 되는 동전 던지기 회수의 평균을 비교하는 겁니다.
05:41
Who thinks생각해. that A is true참된 --
107
316000
2000
A가 맞다고 생각하시는 분들 있습니까?
05:43
that, on average평균, it'll그것은 take longer더 길게 to see head-tail-head머리 꼬리 머리 than head-tail-tail머리 꼬리 꼬리?
108
318000
4000
즉, 평균적으로 HTH를 발견하는 게 HTT를 발견하는 것보다 시간이 더 걸린다는 거죠?
05:47
Who thinks생각해. that B is true참된 -- that on average평균, they're the same같은?
109
322000
3000
B가 맞다고 생각하시는 분들은요? 즉, 평균적으로 같은 시간이 걸린다는 거죠.
05:51
Who thinks생각해. that C is true참된 -- that, on average평균, it'll그것은 take less적게 time
110
326000
2000
C가 맞다고 생각하시는 분들은요? 즉 평균적으로 HTH를 발견하는 게
05:53
to see head-tail-head머리 꼬리 머리 than head-tail-tail머리 꼬리 꼬리?
111
328000
3000
HTT보다 시간이 덜 걸린다는 겁니다.
05:57
OK, who hasn't~하지 않았다. voted투표했다 yet아직? Because that's really naughty못된 -- I said you had to.
112
332000
3000
좋습니다. 아직 투표 안한 사람 있나요? 왜냐면 안했다면 꽤 무례한 것이거든요. 제가 여러분에게 투표하라고 했잖아요.
06:00
(Laughter웃음)
113
335000
1000
(웃음)
06:02
OK. So most가장 people think B is true참된.
114
337000
3000
알겠습니다, 대부분 B가 맞다고 생각하는군요.
06:05
And you might be relieved안도의 to know even rather차라리 distinguished저명한 mathematicians수학자 think that.
115
340000
3000
그리고 여러분이 알면 안심하실만한 사실은, 상당히 유명한 수학자들도 그렇게 생각한다는 겁니다.
06:08
It's not. A is true참된 here.
116
343000
4000
B가 답이 아니고, A가 답입니다.
06:12
It takes longer더 길게, on average평균.
117
347000
2000
평균적으로 시간이 더 걸립니다.
06:14
In fact, the average평균 number번호 of tosses토스 till까지 head-tail-head머리 꼬리 머리 is 10
118
349000
2000
사실 HTH가 나오는 평균 던지기는 10 이고요.
06:16
and the average평균 number번호 of tosses토스 until...까지 head-tail-tail머리 꼬리 꼬리 is eight여덟.
119
351000
5000
HTT가 나오는 평균 던지기는 8 입니다.
06:21
How could that be?
120
356000
2000
어째서일까요?
06:24
Anything different다른 about the two patterns패턴들?
121
359000
3000
이 두 패턴 간의 차이점이라도 있나요?
06:30
There is. Head-tail-head머리 꼬리 머리 overlaps겹치다 itself그 자체.
122
365000
5000
있습니다. HTH는 그 자신 스스로가 겹쳐집니다.
06:35
If you went갔다 head-tail-head-tail-head머리 꼬리 머리 꼬리 머리, you can cunningly교활하게 get two occurrences발생
123
370000
4000
만일 HTHTH 가 나왔다고 하면, 겨우 다섯번 던졌는 데도
06:39
of the pattern무늬 in only five다섯 tosses토스.
124
374000
3000
패턴이 두 번 발생합니다.
06:42
You can't do that with head-tail-tail머리 꼬리 꼬리.
125
377000
2000
HTT의 경우엔 그럴 수 없습니다.
06:44
That turns회전 out to be important중대한.
126
379000
2000
이게 매우 중요한 사실이라는 게 드러났습니다.
06:46
There are two ways of thinking생각 about this.
127
381000
2000
이 점에 대해 생각할 두 가지 방법이 있습니다.
06:48
I'll give you one of them.
128
383000
2000
그 중 하나를 알려드리겠습니다.
06:50
So imagine상상하다 -- let's suppose가정하다 we're doing it.
129
385000
2000
우리가 그것을 한다고 상상해 봅시다.
06:52
On this side측면 -- remember생각해 내다, you're excited흥분한 about head-tail-tail머리 꼬리 꼬리;
130
387000
2000
한 쪽에서는 -- 기억하듯이, HTT 패턴을 좋아하고 있고요.
06:54
you're excited흥분한 about head-tail-head머리 꼬리 머리.
131
389000
2000
여러분들은 HTH 패턴을 좋아한다고 합시다.
06:56
We start스타트 tossing외부 a coin동전, and we get a head머리 --
132
391000
3000
동전을 던지고 H, 즉 앞면이 나왔습니다.
06:59
and you start스타트 sitting좌석 on the edge가장자리 of your seat좌석
133
394000
1000
그러면 여러분은 의자 가장자리에 앉습니다.
07:00
because something great and wonderful훌륭한, or awesome대단한, might be about to happen우연히 있다.
134
395000
5000
왜냐면 뭔가 아름다운, 대단한 일이 발생할 거 같거든요.
07:05
The next다음 것 toss던져 올림 is a tail꼬리 -- you get really excited흥분한.
135
400000
2000
다시 던집니다. T, 뒷면이 나왔습니다. 여러분들은 흥분합니다.
07:07
The champagne's샴페인 on ice얼음 just next다음 것 to you; you've got the glasses안경 chilled차가운 to celebrate세상에 알리다.
136
402000
4000
얼음에 잠긴 샴페인 병이 옆에 있습니다. 샴페인 잔을 차게 해서 축하할 준비를 합니다.
07:11
You're waiting기다리는 with bated성난 breath for the final결정적인 toss던져 올림.
137
406000
2000
마지막 던지기를 숨을 죽이며 기다립니다.
07:13
And if it comes온다 down a head머리, that's great.
138
408000
2000
그리고 H 앞면이 나왔습니다. 멋집니다.
07:15
You're done끝난, and you celebrate세상에 알리다.
139
410000
2000
해냈습니다. 그래서 축하합니다.
07:17
If it's a tail꼬리 -- well, rather차라리 disappointedly실망스럽게, you put the glasses안경 away
140
412000
2000
만일 T 즉 뒷면이 나왔다면 -- 네, 상당히 실망해서, 여러분은 샴페인 잔을 다시 갔다 놓습니다.
07:19
and put the champagne샴페인 back.
141
414000
2000
그리고 샴페인도 도로 갔다 놓습니다.
07:21
And you keep tossing외부, to wait for the next다음 것 head머리, to get excited흥분한.
142
416000
3000
그리고 다시 H, 즉 앞면이 나올 때까지 계속 던집니다.
07:25
On this side측면, there's a different다른 experience경험.
143
420000
2000
다른 한 쪽에서는 다른 경험을 합니다.
07:27
It's the same같은 for the first two parts부분품 of the sequence순서.
144
422000
3000
처음 두 번의 던지기에서는 동일한 경험입니다.
07:30
You're a little bit비트 excited흥분한 with the first head머리 --
145
425000
2000
처음 H가 나오면 약간 흥분하고 --
07:32
you get rather차라리 more excited흥분한 with the next다음 것 tail꼬리.
146
427000
2000
다음에 T가 나오면 상당히 흥분하고
07:34
Then you toss던져 올림 the coin동전.
147
429000
2000
그리고 나서 동전을 던집니다.
07:36
If it's a tail꼬리, you crack갈라진 금 open열다 the champagne샴페인.
148
431000
3000
만일 T가 나오면 샴페인을 터뜨립니다.
07:39
If it's a head머리 you're disappointed실망한,
149
434000
2000
만일 H가 나오면 실망하겠죠.
07:41
but you're still a third제삼 of the way to your pattern무늬 again.
150
436000
3000
그러나 그 H 자체로 이미 여러분이 찾고자 하는 패턴의 3분의 1은 왔습니다.
07:44
And that's an informal약식의 way of presenting프리젠 테이션 it -- that's why there's a difference.
151
439000
4000
이게 바로 그 생각할 방법을 일상적인 방법으로 제시한 겁니다. 그래서 차이가 있는 겁니다.
07:48
Another다른 way of thinking생각 about it --
152
443000
2000
이것에 대해 생각하는 다른 방법으로는 --
07:50
if we tossed던지다 a coin동전 eight여덟 million백만 times타임스,
153
445000
2000
만일 동전을 팔백만번 던졌다고 합시다.
07:52
then we'd우리는 expect배고 있다 a million백만 head-tail-heads머리 꼬리 머리
154
447000
2000
그러면 HTH 패턴을 백만번 정도 기대할 수 있습니다. (2의 3제곱이 8이므로)
07:54
and a million백만 head-tail-tails머리 꼬리 꼬리 -- but the head-tail-heads머리 꼬리 머리 could occur나오다 in clumps덩어리.
155
449000
7000
그리고 HTT도 백만번 정도입니다 -- 그러나 HTH는 무리 지어 발생할 수도 있습니다.
08:01
So if you want to put a million백만 things down amongst사이에 eight여덟 million백만 positions직책
156
456000
2000
따라서 팔백만 개의 위치 중에서 백만개를 내려놓고 싶다면
08:03
and you can have some of them overlapping겹치는, the clumps덩어리 will be further더욱이 apart떨어져서.
157
458000
5000
어떤 것들은 서로 겹쳐지게 되므로, 그 무리들은 갈라지게 됩니다.
08:08
It's another다른 way of getting점점 the intuition직관.
158
463000
2000
이게 바로 직관적으로 이해하는 다른 방법입니다.
08:10
What's the point포인트 I want to make?
159
465000
2000
제가 말하고자 하는 핵심이 뭘까요.
08:12
It's a very, very simple단순한 example, an easily용이하게 stated정해진 question문제 in probability개연성,
160
467000
4000
이건 바로, 확률에서 쉽게 기술할 수 있는 문제이며, 여러분들같이
08:16
which어느 every...마다 -- you're in good company회사 -- everybody각자 모두 gets도착 wrong잘못된.
161
471000
3000
거의 모든 사람들이 틀리는, 매우 매우 단순한 예입니다.
08:19
This is my little diversion전환 into my real레알 passion열정, which어느 is genetics유전학.
162
474000
4000
이건 저의 진정한 열정인 유전학에서 살짝 벗어난 것입니다.
08:23
There's a connection연결 between중에서 head-tail-heads머리 꼬리 머리 and head-tail-tails머리 꼬리 꼬리 in genetics유전학,
163
478000
3000
유전학에서 HTH 와 HTT 같의 연결된 바가 있습니다.
08:26
and it's the following수행원.
164
481000
3000
그건 다음과 같습니다.
08:29
When you toss던져 올림 a coin동전, you get a sequence순서 of heads머리 and tails꼬리.
165
484000
3000
동전을 던지면, 앞면과 뒷면의 순열을 얻게 됩니다.
08:32
When you look at DNADNA, there's a sequence순서 of not two things -- heads머리 and tails꼬리 --
166
487000
3000
DNA를 보시면, 앞면과 뒷면 두 가지의 순열이 아닙니다.
08:35
but four letters편지 -- As, GsGs, CsCs and TsTs.
167
490000
3000
A, G, C, T 라는 네 문자들의 순열입니다.
08:38
And there are little chemical화학 물질 scissors가위, called전화 한 restriction제한 enzymes효소
168
493000
3000
그리고 제한 효소라 불리는 작은 화학적인 가위들이 있습니다.
08:41
which어느 cut절단 DNADNA whenever할때는 언제나 they see particular특별한 patterns패턴들.
169
496000
2000
이 가위들은 DNA에서 특정 패턴을 만나면 자릅니다.
08:43
And they're an enormously엄청나게 useful유능한 tool수단 in modern현대 molecular분자 biology생물학.
170
498000
4000
이것들은 현대 분자 생물학에서 매우 유용한 도구입니다.
08:48
And instead대신에 of asking질문 the question문제, "How long until...까지 I see a head-tail-head머리 꼬리 머리?" --
171
503000
3000
그리고 "앞면, 뒷면, 앞면을 보려면 얼마나 기다려야 하나?"라고 묻는 대신에
08:51
you can ask청하다, "How big will the chunks덩어리 be when I use a restriction제한 enzyme효소
172
506000
3000
"G-A-A-G 라는 패턴을 보면 자르는 제한 효소를 사용한다면, "
08:54
which어느 cuts상처 whenever할때는 언제나 it sees본다 G-A-A-GGAAG, for example?
173
509000
4000
"그 잘라진 덩어리의 길이는 어느정도일까?"라고 물어볼 수 있습니다.
08:58
How long will those chunks덩어리 be?"
174
513000
2000
그 잘라진 것의 길이는 어느 정도일까요?
09:00
That's a rather차라리 trivial하찮은 connection연결 between중에서 probability개연성 and genetics유전학.
175
515000
5000
이건 확률과 유전학 간의 다소 단순한 연결 고리입니다.
09:05
There's a much deeper더 깊은 connection연결, which어느 I don't have time to go into
176
520000
3000
훨씬 더 깊은 연결이 있습니다만, 제가 여기서 다루기에는 다소 시간이 걸립니다.
09:08
and that is that modern현대 genetics유전학 is a really exciting흥미 진진한 area지역 of science과학.
177
523000
3000
그리고 현대 유전학은 매우 재미있는 과학 분야입니다.
09:11
And we'll hear듣다 some talks회담 later후에 in the conference회의 specifically구체적으로 about that.
178
526000
4000
본 컨퍼런스의 나중에 나올 발표 몇 개에서 특히 이 분야에 대해 애기할 것입니다.
09:15
But it turns회전 out that unlocking잠금 해제 the secrets기미 in the information정보 generated생성 된 by modern현대
179
530000
4000
그러나, 이러한 것은 현대의 실험 기술이 생성하는 정보의 비밀을 푸는 것이라는
09:19
experimental실험적인 technologies기술, a key part부품 of that has to do with fairly sophisticated매우 복잡한 --
180
534000
5000
사실이 드러났고요. 핵심적 부분은 상당히 복잡한 데 --
09:24
you'll be relieved안도의 to know that I do something useful유능한 in my day job,
181
539000
3000
근데, 제가 제 직업에서 뭔가 유용한 것을 한다는 걸 아셔서 안심하셨을 겁니다만,
09:27
rather차라리 more sophisticated매우 복잡한 than the head-tail-head머리 꼬리 머리 story이야기 --
182
542000
2000
단순한 앞면 뒷면 앞면 얘기보다는 더 복잡하고 --
09:29
but quite아주 sophisticated매우 복잡한 computer컴퓨터 modelings모델링 and mathematical매우 정확한 modelings모델링
183
544000
4000
상당히 복잡한 컴퓨터 모델링과 수학 모델링
09:33
and modern현대 statistical통계상의 techniques기법.
184
548000
2000
그리고 현대 통계 기법들입니다.
09:35
And I will give you two little snippets짧은 발췌 -- two examples예제들 --
185
550000
3000
이제 여러분에게 두 개의 작은 예로
09:38
of projects프로젝트들 we're involved뒤얽힌 in in my group그룹 in Oxford옥스퍼드,
186
553000
3000
옥스포드의 제 그룹에서 하고 있는 프로젝트들에 대해 소개하겠습니다.
09:41
both양자 모두 of which어느 I think are rather차라리 exciting흥미 진진한.
187
556000
2000
둘 다 제 생각엔 상당히 재미있습니다.
09:43
You know about the Human인간 Genome게놈 Project계획.
188
558000
2000
휴먼 게놈 프로젝트를 아실 겁니다.
09:45
That was a project계획 which어느 aimed겨냥한 to read독서 one copy of the human인간의 genome게놈.
189
560000
4000
그건 사람의 게놈의 한 복사본을 읽으려는 목표의 프로젝트입니다.
09:51
The natural자연스러운 thing to do after you've done끝난 that --
190
566000
2000
이것을 해내고 나면 자연스럽게 하고 싶어지는 일은 --
09:53
and that's what this project계획, the International국제 노동자 동맹 HapMapHapMap Project계획,
191
568000
2000
그게 바로 국제 햅맵 (HapMap) 프로젝트인데,
09:55
which어느 is a collaboration협동 between중에서 labs실험실 in five다섯 or six different다른 countries국가.
192
570000
5000
대여섯 개의 서로 다른 나라의 연구실들 간의 협동 과제입니다.
10:00
Think of the Human인간 Genome게놈 Project계획 as learning배우기 what we've우리는 got in common공유지,
193
575000
4000
휴먼 게놈 프로젝트는 우리가 공통적으로 가지고 있는 게 뭔지를 알고자 하는 거라 생각하시고요.
10:04
and the HapMapHapMap Project계획 is trying견딜 수 없는 to understand알다
194
579000
2000
햅맵 프로젝트는 서로 다른 사람들 간의
10:06
where there are differences차이점들 between중에서 different다른 people.
195
581000
2000
차이점이 어디에 있는지를 이해하기 위한 프로젝트입니다.
10:08
Why do we care케어 about that?
196
583000
2000
왜 우리가 그런 것들에 신경써야 할까요?
10:10
Well, there are lots of reasons원인.
197
585000
2000
글쎄요, 여러 가지 이유가 있습니다.
10:12
The most가장 pressing누르는 one is that we want to understand알다 how some differences차이점들
198
587000
4000
가장 절박한 이유는 우리는 어떠한 차이가 어떤 사람에게
10:16
make some people susceptible느끼기 쉬운 to one disease질병 -- type-유형-2 diabetes당뇨병, for example --
199
591000
4000
특정 질병에 더 잘 걸리게 하는지를 이해하고 싶어 합니다. 예를 들어 당뇨병 제2형이 그렇습니다.
10:20
and other differences차이점들 make people more susceptible느끼기 쉬운 to heart심장 disease질병,
200
595000
5000
또한 어떠한 차이가 사람들로 하여금 심장병이나 발작, 자폐증 등에
10:25
or stroke행정, or autism자폐성 and so on.
201
600000
2000
더 잘 걸리게 하는지 이해하고 싶습니다.
10:27
That's one big project계획.
202
602000
2000
그건 하나의 큰 프로젝트입니다.
10:29
There's a second둘째 big project계획,
203
604000
2000
두 번째로 큰 프로젝트가 있는 데,
10:31
recently요새 funded자금을 조달 한 by the Wellcome웰컴 Trust믿음 in this country국가,
204
606000
2000
최근 미국의 Wellcome Trust 에서 자금을 댄 과제인데요,
10:33
involving관련 very large studies연구 --
205
608000
2000
매우 큰 연구들이 관련되어 있습니다.
10:35
thousands수천 of individuals개인, with each마다 of eight여덟 different다른 diseases질병,
206
610000
3000
8 개의 서로 다른 질병을 각각 가지고 있는 수천 명도 관련되어 있고요.
10:38
common공유지 diseases질병 like type-유형-1 and type-유형-2 diabetes당뇨병, and coronary관상 동맥 heart심장 disease질병,
207
613000
4000
이 질병들은 당뇨병 제1형, 제2형과 같은 흔한 병들과 관상동맥성 심장질환,
10:42
bipolar양극성의 disease질병 and so on -- to try and understand알다 the genetics유전학.
208
617000
4000
조울증 등등으로, 유전학을 이해하고자 하는 시도입니다.
10:46
To try and understand알다 what it is about genetic유전적인 differences차이점들 that causes원인 the diseases질병.
209
621000
3000
질병들을 초래하는 유전적인 차이들이 무엇인지를 이해하려는 시도입니다.
10:49
Why do we want to do that?
210
624000
2000
우린 왜 이런 걸 할까요?
10:51
Because we understand알다 very little about most가장 human인간의 diseases질병.
211
626000
3000
왜냐면, 사람의 질병 대부분에 대해 우린 거의 이해하지 못하고 있기 때문입니다.
10:54
We don't know what causes원인 them.
212
629000
2000
우린 뭐가 질병들을 초래하는지 모릅니다.
10:56
And if we can get in at the bottom바닥 and understand알다 the genetics유전학,
213
631000
2000
만일 우리가 바닥까지 가서 유전학을 이해한다면,
10:58
we'll have a window창문 on the way the disease질병 works공장,
214
633000
3000
질병이 작동하는 길로 향하는 창문을 얻을 수 있을 겁니다.
11:01
and a whole완전한 new새로운 way about thinking생각 about disease질병 therapies치료법
215
636000
2000
또한 질병 치료법, 질병 예방법 등등에 대해 완전히 새롭게
11:03
and preventative예방 treatment치료 and so on.
216
638000
3000
사고하는 방법을 알 수 있을 겁니다.
11:06
So that's, as I said, the little diversion전환 on my main본관 love.
217
641000
3000
따라서, 제가 얘기했듯이, 그건 저의 주된 관심사에서 약간 벗어난 것입니다.
11:09
Back to some of the more mundane평범한 issues문제 of thinking생각 about uncertainty불확실성.
218
644000
5000
불확실성에 대해 생각하는 좀더 재미없는 사안들 중 일부로 돌아가 보겠습니다.
11:14
Here's여기에 another다른 quiz놀리다 for you --
219
649000
2000
여기 여러분에게 다른 퀴즈를 내겠습니다.
11:16
now suppose가정하다 we've우리는 got a test테스트 for a disease질병
220
651000
2000
우리가 특정 질병에 대한 검사를 한다고 합시다.
11:18
which어느 isn't infallible틀림없는, but it's pretty예쁜 good.
221
653000
2000
이 검사는 절대 안틀리는 건 아니지만, 상당히 좋은 검사입니다.
11:20
It gets도착 it right 99 percent퍼센트 of the time.
222
655000
3000
99 퍼센트의 경우로 맞는 답을 제시합니다.
11:23
And I take one of you, or I take someone어떤 사람 off the street거리,
223
658000
3000
그리고 제가 여러분 중 하나를 골라서 또는 길에서 한 사람을 골라서
11:26
and I test테스트 them for the disease질병 in question문제.
224
661000
2000
그 질병을 검사합니다.
11:28
Let's suppose가정하다 there's a test테스트 for HIVHIV -- the virus바이러스 that causes원인 AIDS에이즈 --
225
663000
4000
AIDS를 일으키는 바이러스인 HIV 테스트라고 가정하고
11:32
and the test테스트 says말한다 the person사람 has the disease질병.
226
667000
3000
테스트 결과 그 사람이 그 병이 있다고 합시다.
11:35
What's the chance기회 that they do?
227
670000
3000
그 사람이 그 병이 있을 가능성은 얼마일까요?
11:38
The test테스트 gets도착 it right 99 percent퍼센트 of the time.
228
673000
2000
검사는 99 퍼센트의 경우로 맞는 답을 제시한다고 했습니다.
11:40
So a natural자연스러운 answer대답 is 99 percent퍼센트.
229
675000
4000
따라서 자연스런 대답은 99 퍼센트입니다.
11:44
Who likes좋아하는 사람 that answer대답?
230
679000
2000
이 대답이 맘에 드는 분이 있습니까?
11:46
Come on -- everyone's모두의 got to get involved뒤얽힌.
231
681000
1000
자자 -- 모든 분들이 참여해야 합니다.
11:47
Don't think you don't trust믿음 me anymore더 이상.
232
682000
2000
저를 더이상 믿지 않겠다고 생각하지 마시기 바랍니다.
11:49
(Laughter웃음)
233
684000
1000
(웃음)
11:50
Well, you're right to be a bit비트 skeptical의심 많은, because that's not the answer대답.
234
685000
3000
사실, 회의적인 게 맞습니다. 왜냐면 맞는 답이 아니거든요.
11:53
That's what you might think.
235
688000
2000
그게 바로 여러분이 생각하시고 있는 것일 겁니다.
11:55
It's not the answer대답, and it's not because it's only part부품 of the story이야기.
236
690000
3000
이게 정답이 아닌 이유는 단지 이야기의 일부일 뿐이라서가 아닙니다.
11:58
It actually사실은 depends의존하다 on how common공유지 or how rare드문 the disease질병 is.
237
693000
3000
그건 실제로 병이 얼마나 흔한지 아니면 희귀한지에 따라 달라지기 때문입니다.
12:01
So let me try and illustrate설명하다 that.
238
696000
2000
따라서, 설명해 보겠습니다.
12:03
Here's여기에 a little caricature풍자 만화 of a million백만 individuals개인.
239
698000
4000
여기 백만 명에 대한 작은 그림이 있습니다.
12:07
So let's think about a disease질병 that affects영향을 미치다 --
240
702000
3000
이런 질병에 대해 생각해 봅시다.
12:10
it's pretty예쁜 rare드문, it affects영향을 미치다 one person사람 in 10,000.
241
705000
2000
이건 매우 희귀한 거라 만 명 중 한 명에게만 영향을 줍니다.
12:12
Amongst사이 these million백만 individuals개인, most가장 of them are healthy건강한
242
707000
3000
이 백만 명 중, 대부분은 건강합니다.
12:15
and some of them will have the disease질병.
243
710000
2000
그리고 일부는 그 질병을 가지고 있습니다.
12:17
And in fact, if this is the prevalence널리 퍼짐 of the disease질병,
244
712000
3000
그리고, 만일 그 질병이 유행한다면, 사실은
12:20
about 100 will have the disease질병 and the rest휴식 won't습관.
245
715000
3000
100명이 질병에 걸리고, 나머지는 그렇지 않다는 겁니다.
12:23
So now suppose가정하다 we test테스트 them all.
246
718000
2000
그러므로, 우리가 그 백만명을 전부 테스트한다고 합시다.
12:25
What happens일이?
247
720000
2000
어떻게 될까요?
12:27
Well, amongst사이에 the 100 who do have the disease질병,
248
722000
2000
자, 질병을 가진 100 명 중에서
12:29
the test테스트 will get it right 99 percent퍼센트 of the time, and 99 will test테스트 positive.
249
724000
5000
테스트는 99 퍼센트 맞으므로, 99명은 양성으로 나오고
12:34
Amongst사이 all these other people who don't have the disease질병,
250
729000
2000
질병이 없는 다른 사람들 중에서는
12:36
the test테스트 will get it right 99 percent퍼센트 of the time.
251
731000
3000
테스트는 역시 99 퍼센트 맞으므로
12:39
It'll그것은 only get it wrong잘못된 one percent퍼센트 of the time.
252
734000
2000
단지 1퍼센트만 잘못 결과를 낼 것입니다.
12:41
But there are so many많은 of them that there'll거기에 be an enormous거대한 number번호 of false그릇된 positives긍정적 인.
253
736000
4000
그러나 질병이 없는 사람들이 훨씬 많으므로, 가짜 양성(false positive)이 엄청나게 나올 것입니다.
12:45
Put that another다른 way --
254
740000
2000
다시 말해서 --
12:47
of all of them who test테스트 positive -- so here they are, the individuals개인 involved뒤얽힌 --
255
742000
5000
양성으로 판정된 사람들 중에서, -- 여기에 그들이 있죠 -- 관련된 사람들 중에
12:52
less적게 than one in 100 actually사실은 have the disease질병.
256
747000
5000
100 분의 1 이하가 실제로 질병을 가지고 있다는 겁니다.
12:57
So even though그래도 we think the test테스트 is accurate정확한, the important중대한 part부품 of the story이야기 is
257
752000
4000
따라서, 우리가 그 테스트가 정확하다고 생각하더라도, 이 이야기의 중요한 부분은
13:01
there's another다른 bit비트 of information정보 we need.
258
756000
3000
우리는 다른 정보가 필요하다는 겁니다.
13:04
Here's여기에 the key intuition직관.
259
759000
2000
여기에 중요한 직감이 있습니다.
13:07
What we have to do, once일단 we know the test테스트 is positive,
260
762000
3000
일단 결과가 양성임을 안다면, 반드시 해야 할 일은
13:10
is to weigh달다 up the plausibility타당성, or the likelihood있을 수 있는 일, of two competing경쟁하는 explanations설명.
261
765000
6000
두가지 가능한 설명에 대한 타당성 또는 가능성를 재봐야 한다는 겁니다.
13:16
Each마다 of those explanations설명 has a likely아마도 bit비트 and an unlikely있을 것 같지 않게 bit비트.
262
771000
3000
각각의 설명에는 가능성이 있는 부분과 그렇지 않은 부분이 있습니다.
13:19
One explanation설명 is that the person사람 doesn't have the disease질병 --
263
774000
3000
첫번째 설명은 그 사람이 질병을 가지고 있지 않다는 건데 --
13:22
that's overwhelmingly압도적으로 likely아마도, if you pick선택 someone어떤 사람 at random무작위의 --
264
777000
3000
만일 그 사람을 무작위로 뽑은 거라면 그럴 가능성이 매우 있습니다.
13:25
but the test테스트 gets도착 it wrong잘못된, which어느 is unlikely있을 것 같지 않게.
265
780000
3000
그러나, 그건 테스트가 틀렸다는 건 데, 그럴 가능성이 없어 보입니다.
13:29
The other explanation설명 is that the person사람 does have the disease질병 -- that's unlikely있을 것 같지 않게 --
266
784000
3000
다른 설명은 그 사람이 질병을 가진 건데, -- 그럴 가능성은 없어 보이지만 --
13:32
but the test테스트 gets도착 it right, which어느 is likely아마도.
267
787000
3000
테스트가 제대로 맞추었다는 것으로 그럴 가능성은 있어 보입니다.
13:35
And the number번호 we end종료 up with --
268
790000
2000
그리고 결국 우리가 계산을 마친 숫자를 보면 --
13:37
that number번호 which어느 is a little bit비트 less적게 than one in 100 --
269
792000
3000
100 분의 1보다 약간 더 작은 숫자인데 --
13:40
is to do with how likely아마도 one of those explanations설명 is relative상대적인 to the other.
270
795000
6000
이 두 설명들 중 하나가 다른 하나와 비교하여 얼마나 가능성을 가졌는지와 관계가 있습니다.
13:46
Each마다 of them taken취한 together함께 is unlikely있을 것 같지 않게.
271
801000
2000
이 두 설명을 같이 고려하는 것은 가능성이 없어 보입니다.
13:49
Here's여기에 a more topical뉴스 영화 example of exactly정확하게 the same같은 thing.
272
804000
3000
이와 정확히 같은 경우로 좀더 시사적인 예를 보도록 합시다.
13:52
Those of you in Britain영국 will know about what's become지다 rather차라리 a celebrated유명한 case케이스
273
807000
4000
이 중 영국에 계신 분은 이제 어느 정도 유명해진 사건으로 자신의 두 아이가 갑자기 사망한
13:56
of a woman여자 called전화 한 Sally출격 Clark클락, who had two babies아기들 who died사망 한 suddenly갑자기.
274
811000
5000
샐리 클라크의 경우입니다. (변호사이며, MSbP에 의한 유아 살해 혐의로 3년간 복역하다 무죄로 풀려났으나, 그로 인한 알콜 중독으로 사망)
14:01
And initially처음에는, it was thought that they died사망 한 of what's known알려진 informally비공식적으로 as "cot간이 침대 death죽음,"
275
816000
4000
그리고 초기에는, 이 아이들이 유아 돌연사로 죽었다고 여겨졌습니다.
14:05
and more formally정식으로 as "Sudden갑작스러운 Infant유아 Death죽음 Syndrome증후군."
276
820000
3000
더 정확히 말하면 유아 돌연사 증후군이죠.
14:08
For various여러 reasons원인, she was later후에 charged청구 된 with murder살인.
277
823000
2000
여러 가지 이유로, 그녀는 나중에 살인 혐의를 받게 됩니다.
14:10
And at the trial시도, her trial시도, a very distinguished저명한 pediatrician소아과 의사 gave evidence증거
278
825000
4000
그리고 재판에서, 그녀의 재판에서, 매우 유명한 소아과 의사가 (Roy Meadow: MSbP 증상을 최초로 주장한 사람)
14:14
that the chance기회 of two cot간이 침대 deaths사망자, innocent순진한 deaths사망자, in a family가족 like hers그녀의 --
279
829000
5000
두 건의 유아 돌연사, 즉 누구도 죄가 없는 사망 사건이 그녀의 가족같이 전문직에 종사하고 흡연을 안하는 가족에서
14:19
which어느 was professional직업적인 and non-smoking금연 -- was one in 73 million백만.
280
834000
6000
일어날 우연성은 7천3백만 분의 1이라는 증거를 제시합니다.
14:26
To cut절단 a long story이야기 short짧은, she was convicted유죄 판결을받은 at the time.
281
841000
3000
긴 얘기를 짧게 말하자면, 그녀는 그 당시에는 유죄를 선고받았습니다.
14:29
Later후에, and fairly recently요새, acquitted석방 된 on appeal항소 -- in fact, on the second둘째 appeal항소.
282
844000
5000
나중에, 아주 최근 들어, 항소심에서 무죄를 인정받았습니다. 실제로는 두 번째 항소심이었죠.
14:34
And just to set세트 it in context문맥, you can imagine상상하다 how awful무서운 it is for someone어떤 사람
283
849000
4000
그리고 이 맥락을 고려하자면, 이것이 얼마나 끔찍한 것인지 이해할 수 있을텐데요.
14:38
to have lost잃어버린 one child어린이, and then two, if they're innocent순진한,
284
853000
3000
아무 죄도 없는 한 사람이 자신의 첫 아이를 잃고, 두 번째 아이를 잃고,
14:41
to be convicted유죄 판결을받은 of murdering살인 them.
285
856000
2000
그들을 살해했다고 유죄를 선고 받은 겁니다.
14:43
To be put through...을 통하여 the stress스트레스 of the trial시도, convicted유죄 판결을받은 of murdering살인 them --
286
858000
2000
재판 과정과 아기들을 죽였다고 유죄 선고를 받은 정신적 고통과
14:45
and to spend보내 time in a women's여자 prison감옥, where all the other prisoners죄수
287
860000
3000
여성 감옥에서 당신을 자식들을 죽인 사람으로 간주할 다른 죄수들과
14:48
think you killed살해 된 your children어린이 -- is a really awful무서운 thing to happen우연히 있다 to someone어떤 사람.
288
863000
5000
지내야 하는 스트레스는 -- 사람에게 일어날 수 있는 진정으로 끔찍한 일입니다.
14:53
And it happened일어난 in large part부품 here because the expert전문가 got the statistics통계
289
868000
5000
그리고, 이 일은 많은 곳에서 일어나는 데, 그 이유는 전문가들이 통계를
14:58
horribly무섭게 wrong잘못된, in two different다른 ways.
290
873000
3000
두 가지 다른 방식으로 지독하게 잘못 받아들이기 때문입니다.
15:01
So where did he get the one in 73 million백만 number번호?
291
876000
4000
자, 그 사람은 어디서 7천3백만이라는 숫자를 얻었을까요?
15:05
He looked보았다 at some research연구, which어느 said the chance기회 of one cot간이 침대 death죽음 in a family가족
292
880000
3000
그 사람은 어떤 연구를 참고했는 데, 그 연구에서는 샐리 클라크와 비슷한 가족에서
15:08
like Sally출격 Clark's클락 is about one in 8,500.
293
883000
5000
아이가 유아 돌연사할 가능성이 8,500 분의 1이라는 걸 본 겁니다.
15:13
So he said, "I'll assume취하다 that if you have one cot간이 침대 death죽음 in a family가족,
294
888000
4000
따라서, 그는 "만일 가족에서 유아 돌연사가 한 번 일어난 다면, "
15:17
the chance기회 of a second둘째 child어린이 dying사망 from cot간이 침대 death죽음 aren't있지 않다. changed변경된."
295
892000
4000
"또 한 번 일어날 확률은 변하지 않는다고 가정할 수 있다."라고 말한 겁니다.
15:21
So that's what statisticians통계 학자 would call an assumption인수 of independence독립.
296
896000
3000
그게 바로 통계학자들이 말하는 이른바 독립성의 가정입니다.
15:24
It's like saying속담, "If you toss던져 올림 a coin동전 and get a head머리 the first time,
297
899000
2000
이건 마치 "만일 당신이 동전을 던지고, 처음에 앞면이 나왔다면 이 사실은"
15:26
that won't습관 affect감정 the chance기회 of getting점점 a head머리 the second둘째 time."
298
901000
3000
"두 번째에 동전의 앞면이 나올 가능성에 영향을 주지 않는다"는 말과 같습니다.
15:29
So if you toss던져 올림 a coin동전 twice두번, the chance기회 of getting점점 a head머리 twice두번 are a half절반 --
299
904000
5000
따라서, 만일 동전을 두 번 던진다면, 앞면이 두번 나올 확률은 2분의 1인 첫번째 던졌을 때의 가능성에
15:34
that's the chance기회 the first time -- times타임스 a half절반 -- the chance기회 a second둘째 time.
300
909000
3000
역시 2분의 1인 두번째 던졌을 때의 가능성을 곱한 것이 됩니다.
15:37
So he said, "Here,
301
912000
2000
따라서 그 소아과 의사는 말하길 "자, 가정해 봅시다 --
15:39
I'll assume취하다 that these events사건 are independent독립적 인.
302
914000
4000
이러한 사건들이 서로 독립적이라고 가정하겠습니다.
15:43
When you multiply곱하다 8,500 together함께 twice두번,
303
918000
2000
그러면, 8,500 을 두 번 곱하게 되는 데,
15:45
you get about 73 million백만."
304
920000
2000
7천3백만을 얻게 되는 겁니다."
15:47
And none없음 of this was stated정해진 to the court법정 as an assumption인수
305
922000
2000
그리고 이 주장이 가정이라는 점은, 법정에서나 배심원들에게
15:49
or presented제시된 to the jury배심 that way.
306
924000
2000
제시되지 않았습니다.
15:52
Unfortunately운수 나쁘게 here -- and, really, regrettably유감스럽게도 --
307
927000
3000
여기서 불행히도 -- 그리고 너무도 유감스럽게도 --
15:55
first of all, in a situation상태 like this you'd당신은 have to verify검증 it empirically경험적으로.
308
930000
4000
무엇보다 먼저, 이러한 상황이라면, 제시된 주장을 실험적으로 확인해야 합니다.
15:59
And secondly둘째로, it's palpably눈에 띄게 false그릇된.
309
934000
2000
두번째로, 그 주장은 명백히 거짓입니다.
16:02
There are lots and lots of things that we don't know about sudden갑자기 infant유아 deaths사망자.
310
937000
5000
우리가 유아 돌연사에 대해 모르는 건 너무도 너무도 많습니다.
16:07
It might well be that there are environmental환경 factors요인들 that we're not aware알고있는 of,
311
942000
3000
우리가 모르는 환경적인 요소가 존재할 수도 있습니다.
16:10
and it's pretty예쁜 likely아마도 to be the case케이스 that there are
312
945000
2000
또한 우리가 모르는 유전적인 요소가 존재할 가능성도
16:12
genetic유전적인 factors요인들 we're not aware알고있는 of.
313
947000
2000
매우 높습니다.
16:14
So if a family가족 suffers고통을 겪다 from one cot간이 침대 death죽음, you'd당신은 put them in a high-risk위험 group그룹.
314
949000
3000
따라서, 어떤 가족이 유아 돌연사로 고통받는다면, 그 가족은 고위험군으로 분류해야 합니다.
16:17
They've그들은 probably아마 got these environmental환경 risk위험 factors요인들
315
952000
2000
그 가족은 우리가 모르는 환경적 위험 요소를 가지고 있고
16:19
and/or genetic유전적인 risk위험 factors요인들 we don't know about.
316
954000
3000
또는 유전적인 위험 요소를 가지고 있을 수도 있습니다.
16:22
And to argue논하다, then, that the chance기회 of a second둘째 death죽음 is as if you didn't know
317
957000
3000
그리고 그런 정보를 모르면서, 두번째 죽음의 가능성에 대해 논하는 것은
16:25
that information정보 is really silly바보.
318
960000
3000
정말 어리석은 짓입니다.
16:28
It's worse보다 나쁜 than silly바보 -- it's really bad나쁜 science과학.
319
963000
4000
그건 어리석은 거보다 더 나쁩니다. 그건 정말 잘못된 과학입니다.
16:32
Nonetheless그럼에도 불구하고, that's how it was presented제시된, and at trial시도 nobody아무도 even argued논쟁하는 it.
320
967000
5000
그럼에도, 상황은 그런 식으로 흘러갔고, 재판에서 아무도 논쟁하지 않았습니다.
16:37
That's the first problem문제.
321
972000
2000
이것이 첫번째 문제입니다.
16:39
The second둘째 problem문제 is, what does the number번호 of one in 73 million백만 mean?
322
974000
4000
두번째 문제는 도대체 7천3백만분의 일이라는 숫자가 의미하는 게 뭐냐는 겁니다.
16:43
So after Sally출격 Clark클락 was convicted유죄 판결을받은 --
323
978000
2000
샐리 클라크가 유죄선고를 받고 나서 --
16:45
you can imagine상상하다, it made만든 rather차라리 a splash튀김 in the press프레스 --
324
980000
4000
예상하실 수 있겠지만, 언론은 이걸 특정으로 만들었고 --
16:49
one of the journalists언론인 from one of Britain's영국의 more reputable평판이 좋은 newspapers신문 wrote that
325
984000
7000
영국의 유명한 신문의 한 기자는 이렇게 썼습니다.
16:56
what the expert전문가 had said was,
326
991000
2000
전문가가 말한 바는
16:58
"The chance기회 that she was innocent순진한 was one in 73 million백만."
327
993000
5000
"그녀가 무죄일 확률이 7천3백만 분의 1이라는 것이다."
17:03
Now, that's a logical논리적 인 error오류.
328
998000
2000
자, 이건 논리적인 오류입니다.
17:05
It's exactly정확하게 the same같은 logical논리적 인 error오류 as the logical논리적 인 error오류 of thinking생각 that
329
1000000
3000
이건 99 퍼센트 정확한 질병 테스트를 하고 나서
17:08
after the disease질병 test테스트, which어느 is 99 percent퍼센트 accurate정확한,
330
1003000
2000
질병에 걸렸을 가능성이 99 퍼센트라고 생각하는
17:10
the chance기회 of having the disease질병 is 99 percent퍼센트.
331
1005000
4000
것과 정확히 똑같은 논리적인 오류입니다.
17:14
In the disease질병 example, we had to bear in mind마음 two things,
332
1009000
4000
질병에 대한 예에서, 우린 두가지 경우를 명심해야 했습니다.
17:18
one of which어느 was the possibility가능성 that the test테스트 got it right or not.
333
1013000
4000
하나는 테스트가 맞는지 틀리는지의 가능성에 대한 것이고요.
17:22
And the other one was the chance기회, a priori선험적, that the person사람 had the disease질병 or not.
334
1017000
4000
다른 하나는, 테스트 이전에 그 사람이 질병을 가지고 있는지 아닌지에 대한 가능성입니다.
17:26
It's exactly정확하게 the same같은 in this context문맥.
335
1021000
3000
이 맥락에 따르면 정확히 같은 것입니다.
17:29
There are two things involved뒤얽힌 -- two parts부분품 to the explanation설명.
336
1024000
4000
두 가지 것이 전체 설명의 두 부분에 관련되어 있습니다.
17:33
We want to know how likely아마도, or relatively상대적으로 how likely아마도, two different다른 explanations설명 are.
337
1028000
4000
두가지 가능한 설명에 대해, 우린 얼마나 가능성이 있는지, 상대적으로 얼마나 가능성이 있는지 알고 싶어합니다.
17:37
One of them is that Sally출격 Clark클락 was innocent순진한 --
338
1032000
3000
그 중 하나는 샐리 클라크가 무죄다라는 거고요.
17:40
which어느 is, a priori선험적, overwhelmingly압도적으로 likely아마도 --
339
1035000
2000
그건 원래부터 매우 가능성이 있는 겁니다.
17:42
most가장 mothers어머니 don't kill죽이다 their그들의 children어린이.
340
1037000
3000
대부분의 어머니들은 자기 자식을 살해하지 않습니다.
17:45
And the second둘째 part부품 of the explanation설명
341
1040000
2000
그리고 그 설명의 두번째 부분은
17:47
is that she suffered고통당한 an incredibly엄청나게 unlikely있을 것 같지 않게 event행사.
342
1042000
3000
그녀가 믿을 수 없을 정도로 있을 수 없는 사건들로 괴로워하고 있었다는 겁니다.
17:50
Not as unlikely있을 것 같지 않게 as one in 73 million백만, but nonetheless그럼에도 불구하고 rather차라리 unlikely있을 것 같지 않게.
343
1045000
4000
7천3백만분의 1만큼 있을 수 없는 게 아니라, 그럼에도 더더욱 있을 거 같지 않은 사건으로 말입니다.
17:54
The other explanation설명 is that she was guilty저지른.
344
1049000
2000
다른 설명을 보자면, 그녀는 유죄입니다.
17:56
Now, we probably아마 think a priori선험적 that's unlikely있을 것 같지 않게.
345
1051000
2000
이건 원래부터 가능성이 희박합니다.
17:58
And we certainly확실히 should think in the context문맥 of a criminal범죄자 trial시도
346
1053000
3000
그리고, 우린 범죄자의 재판이라는 상황에 기대어
18:01
that that's unlikely있을 것 같지 않게, because of the presumption가정 of innocence무죄.
347
1056000
3000
그 가능성이 거의 없다고 생각해야 합니다. 무죄추정의 원칙 때문이죠.
18:04
And then if she were trying견딜 수 없는 to kill죽이다 the children어린이, she succeeded성공한.
348
1059000
4000
그리고, 만일 그녀가 자식들을 죽이려 했었다면, 그녀는 성공한 겁니다.
18:08
So the chance기회 that she's innocent순진한 isn't one in 73 million백만.
349
1063000
4000
그리고, 그녀가 무죄일 가능성은 7천3백만 분의 1이 아닙니다.
18:12
We don't know what it is.
350
1067000
2000
우린 그 가능성이 얼마인지 모릅니다.
18:14
It has to do with weighing계량 up the strength of the other evidence증거 against반대 her
351
1069000
4000
그 가능성은 그녀가 유죄라는 다른 증거들의 중요성과 통계적인 증거를
18:18
and the statistical통계상의 evidence증거.
352
1073000
2000
같이 저울질한 결과와 관계가 있는 것입니다.
18:20
We know the children어린이 died사망 한.
353
1075000
2000
아이들이 죽었다는 것을 우린 압니다.
18:22
What matters사안 is how likely아마도 or unlikely있을 것 같지 않게, relative상대적인 to each마다 other,
354
1077000
4000
중요한 것은 두 가지 가능한 설명이 서로 상대적으로 얼마나 가능성이
18:26
the two explanations설명 are.
355
1081000
2000
있는지 그렇지 않은지입니다.
18:28
And they're both양자 모두 implausible믿을만한.
356
1083000
2000
그리고 둘 다 믿기지 않습니다.
18:31
There's a situation상태 where errors오류 in statistics통계 had really profound깊은
357
1086000
4000
통계적인 오류가 진정으로 심오하고, 진정으로 불행한 결과를
18:35
and really unfortunate불행한 사람 consequences결과.
358
1090000
3000
낳은 상황이 되었습니다.
18:38
In fact, there are two other women여자들 who were convicted유죄 판결을받은 on the basis기초 of the
359
1093000
2000
사실, 이 소아과 의사가 제시한 증거를 기반으로 다른 두 여성이 유죄 선고를 받았고
18:40
evidence증거 of this pediatrician소아과 의사, who have subsequently그후 been released석방 된 on appeal항소.
360
1095000
4000
나중에, 항소심을 통해 풀려났습니다.
18:44
Many많은 cases사례 were reviewed검토 된.
361
1099000
2000
많은 사건들이 재조사되었습니다.
18:46
And it's particularly특별히 topical뉴스 영화 because he's currently현재 facing면함 a disrepute나쁜 평판 charge요금
362
1101000
4000
이건 특히 시사적인데, 그 의사는 현재 영국 일반의사협회에 불명예를
18:50
at Britain's영국의 General일반 Medical의료 Council이사회.
363
1105000
3000
안긴 혐의로 기소되었기 때문입니다.
18:53
So just to conclude끝내다 -- what are the take-home테이크 - 홈 messages메시지 from this?
364
1108000
4000
이제 결론을 내자면 -- 이 발표에서 집에 가져갈 메시지가 뭘까요?
18:57
Well, we know that randomness무작위성 and uncertainty불확실성 and chance기회
365
1112000
4000
자, 우린 무작위성, 불확실성, 그리고 가능성이 우리 매일매일의 생활의
19:01
are very much a part부품 of our everyday매일 life.
366
1116000
3000
많은 부분임을 압니다.
19:04
It's also또한 true참된 -- and, although이기는 하지만, you, as a collective집단적, are very special특별한 in many많은 ways,
367
1119000
5000
또한 -- 비록 여러분들은 여러 가지 방향으로 매우 특별한 분들이지만,
19:09
you're completely완전히 typical전형적인 in not getting점점 the examples예제들 I gave right.
368
1124000
4000
제가 제시한 예들에 제대로 대답하지 못한 전형적인 사람들입니다.
19:13
It's very well documented문서화 된 that people get things wrong잘못된.
369
1128000
3000
사람들이 이러한 질문들에 제대로 대답하지 못한다는 건, 관련 논문들에도 잘 나와 있습니다.
19:16
They make errors오류 of logic논리 in reasoning추리 with uncertainty불확실성.
370
1131000
3000
사람들은 불확실성 하에서 논리적인 추론을 할 때 오류를 저지릅니다.
19:20
We can cope코프 with the subtleties미묘한 of language언어 brilliantly훌륭하게 --
371
1135000
2000
우린 언어의 미묘함에 훌륭하게 대처해야 하고 --
19:22
and there are interesting재미있는 evolutionary진화의 questions질문들 about how we got here.
372
1137000
3000
우리가 어떻게 이렇게 되었는지에 대해 흥미로운 진화적인 질문들이 있습니다.
19:25
We are not good at reasoning추리 with uncertainty불확실성.
373
1140000
3000
우린 불확실성 하에서의 추론을 잘 못합니다.
19:28
That's an issue발행물 in our everyday매일 lives.
374
1143000
2000
그건 우리가 매일 생활하는 바에 있어 문제가 됩니다.
19:30
As you've heard들었던 from many많은 of the talks회담, statistics통계 underpins밑받침 an enormous거대한 amount
375
1145000
3000
이러한 많은 발표들에서 들으셨듯이, 통계는 과학 연구 -- 특히 사회과학이나 의학에서
19:33
of research연구 in science과학 -- in social사회적인 science과학, in medicine의학
376
1148000
3000
많은 것들에 대해 뒷받침하는 근거를 제공합니다.
19:36
and indeed과연, quite아주 a lot of industry산업.
377
1151000
2000
그리고 산업계의 많은 부분에서도 실제로 그러합니다.
19:38
All of quality품질 control제어, which어느 has had a major주요한 impact충격 on industrial산업의 processing가공,
378
1153000
4000
산업 처리 과정에 주요한 영향을 주는 품질 관리의 모든 것이
19:42
is underpinned밑받침 by statistics통계.
379
1157000
2000
통계에 의해 근거를 얻습니다.
19:44
It's something we're bad나쁜 at doing.
380
1159000
2000
통계는 우리가 제대로 못해내는 것입니다.
19:46
At the very least가장 작은, we should recognize인정하다 that, and we tend지키다 not to.
381
1161000
3000
최소한 적어도, 우린 그 사실을 인식해야 하는 데, 그러지 못합니다.
19:49
To go back to the legal적법한 context문맥, at the Sally출격 Clark클락 trial시도
382
1164000
4000
샐리 클라크의 재판에 대한 법률적인 상황으로 돌아가 보면,
19:53
all of the lawyers변호사 just accepted받아 들인 what the expert전문가 said.
383
1168000
4000
모든 변호사들이 전문가가 말한 것을 그냥 받아들였습니다.
19:57
So if a pediatrician소아과 의사 had come out and said to a jury배심,
384
1172000
2000
만일 소아과 의사가 와서 배심원에게 말하길,
19:59
"I know how to build짓다 bridges다리. I've built세워짐 one down the road도로.
385
1174000
3000
"난 다리를 어떻게 건설하는지 압니다. 저 길 아래 다리 하나를 지었습니다."
20:02
Please drive드라이브 your car home over it,"
386
1177000
2000
"그 위로 차를 타고 지나서 집으로 가시지요."라고 한다면,
20:04
they would have said, "Well, pediatricians소아과 의사 don't know how to build짓다 bridges다리.
387
1179000
2000
배심원들은 "허, 소아과 의사는 다리를 건설할 줄 몰라."
20:06
That's what engineers엔지니어 do."
388
1181000
2000
"그건 엔지니어가 할 일이지"라고 하겠죠.
20:08
On the other hand, he came왔다 out and effectively효과적으로 said, or implied암시 된,
389
1183000
3000
반면, 그는 나와서 효과적으로 주장했거나, 최소한 암시하기를,
20:11
"I know how to reason이유 with uncertainty불확실성. I know how to do statistics통계."
390
1186000
3000
"나는 불확실성 하에서도 추론을 할 줄 압니다. 나는 통계를 할 줄 알거든요."라고 했고,
20:14
And everyone각자 모두 said, "Well, that's fine. He's an expert전문가."
391
1189000
3000
모든 사람들이 "음, 그거 괜찮네. 그는 전문가니까."라고 말했습니다.
20:17
So we need to understand알다 where our competence능력 is and isn't.
392
1192000
3000
따라서, 우린 무엇이 우리가 잘하는 건지, 아닌지를 이해할 필요가 있습니다.
20:20
Exactly정확하게 the same같은 kinds종류 of issues문제 arose일어났다 in the early이른 days of DNADNA profiling프로파일 링,
393
1195000
4000
정확히 똑같은 문제들이 DNA 프로파일링의 초기에 발생했는 데,
20:24
when scientists과학자들, and lawyers변호사 and in some cases사례 judges심사 위원,
394
1199000
4000
과학자들, 법률가들 그리고 어떤 경우에는 판사들이,
20:28
routinely일상적으로 misrepresented허위 진술 된 evidence증거.
395
1203000
3000
상투적으로 증거를 잘못 제시했습니다.
20:32
Usually보통 -- one hopes희망하다 -- innocently무심코, but misrepresented허위 진술 된 evidence증거.
396
1207000
3000
일반적으로 -- 사람들이 믿고 싶기를 -- 순전히 실수로 증거를 잘못 제시한 것입니다.
20:35
Forensic법의학 scientists과학자들 said, "The chance기회 that this guy's남자의 innocent순진한 is one in three million백만."
397
1210000
5000
법의학 과학자들이 "그 사람이 무고일 가능성은 3백만분의 1이다."라고 말했습니다.
20:40
Even if you believe the number번호, just like the 73 million백만 to one,
398
1215000
2000
7천3백만분의 1처럼, 그 숫자를 여러분이 믿는다고 해도,
20:42
that's not what it meant의미심장 한.
399
1217000
2000
그건 그런 뜻이 아닙니다.
20:44
And there have been celebrated유명한 appeal항소 cases사례
400
1219000
2000
그리고 그러한 것 때문에 영국과 다른 나라들에서는
20:46
in Britain영국 and elsewhere다른 곳에 because of that.
401
1221000
2000
몇 건의 유명한 항소심들이 있었습니다.
20:48
And just to finish in the context문맥 of the legal적법한 system체계.
402
1223000
3000
법률 시스템의 맥락에서 이 발표를 마치자면...
20:51
It's all very well to say, "Let's do our best베스트 to present선물 the evidence증거."
403
1226000
4000
"증거를 제시하기 위해 노력하자"고 말하는 건 매우 좋습니다.
20:55
But more and more, in cases사례 of DNADNA profiling프로파일 링 -- this is another다른 one --
404
1230000
3000
그러나 더더욱, DNA 프로파일링의 경우 -- 이건 다른 경우입니다.
20:58
we expect배고 있다 juries배심원, who are ordinary보통주 people --
405
1233000
3000
우린 배심원들이 평범한 사람들로 --
21:01
and it's documented문서화 된 they're very bad나쁜 at this --
406
1236000
2000
그들이 불확실성 하에서의 추론에 약하다는 건 논문에 잘 나와있으므로 --
21:03
we expect배고 있다 juries배심원 to be able할 수 있는 to cope코프 with the sorts종류 of reasoning추리 that goes간다 on.
407
1238000
4000
우린 배심원들이 이러한 종류의 추론에 대응할 수 있기를 기대해야 합니다.
21:07
In other spheres분야 of life, if people argued논쟁하는 -- well, except possibly혹시 for politics정치 --
408
1242000
5000
인생의 다른 부분, 만일 사람들이 주장한다면 -- 아, 아마도 정치는 빼고요.
21:12
but in other spheres분야 of life, if people argued논쟁하는 illogically비논리적으로,
409
1247000
2000
그러나, 인생의 다른 부분에서, 만일 사람들이 비논리적으로 주장한다면,
21:14
we'd우리는 say that's not a good thing.
410
1249000
2000
우린 그건 좋은 게 아니다라고 말해야 합니다.
21:16
We sort종류 of expect배고 있다 it of politicians정치인 and don't hope기대 for much more.
411
1251000
4000
우린 그런 건 정치인들에게나 기대하고, 그 이상은 기대도 안합니다.
21:20
In the case케이스 of uncertainty불확실성, we get it wrong잘못된 all the time --
412
1255000
3000
불확실성의 경우, 우린 언제나 제대로 못해냅니다.
21:23
and at the very least가장 작은, we should be aware알고있는 of that,
413
1258000
2000
그리고 적어도 최소한, 우린 그걸 알고 있어야 합니다.
21:25
and ideally이상적으로, we might try and do something about it.
414
1260000
2000
그리고 이상적으로, 우린 이것에 대해 뭔가 하려고 노력해야 할 것입니다.
21:27
Thanks감사 very much.
415
1262000
1000
매우 감사합니다.
Translated by Dae-Ki Kang
Reviewed by John Han

▲Back to top

ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com