ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com
TEDGlobal 2005

Peter Donnelly: How juries are fooled by statistics

ピーター・ドネリー: 統計に騙される陪審員たち

Filmed:
1,279,860 views

オックスフォード大学の数学者であるピーター・ドネリーは我々が統計を解釈する際によくおかす間違いについて明らかにします。そんな間違いは、刑事裁判の判決に対して、破壊的な影響力を及ぼしました。
- Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom. Full bio

Double-click the English transcript below to play the video.

00:25
As other speakersスピーカー have said, it's a ratherむしろ daunting大変なこと experience経験 --
0
0
2000
他の講演者の方も話されましたが
00:27
a particularly特に daunting大変なこと experience経験 -- to be speaking話し中 in frontフロント of this audience聴衆.
1
2000
3000
この観客の前で話すのは
手ごわい経験です
00:30
But unlike違う the other speakersスピーカー, I'm not going to tell you about
2
5000
3000
しかし 私がお話しするのは
他の方たちの様に
00:33
the mysteries of the universe宇宙, or the wonders不思議 of evolution進化,
3
8000
2000
宇宙の謎や
進化の神秘
00:35
or the really clever賢い, innovative革新的な ways方法 people are attacking攻撃
4
10000
4000
世界の不平等を解消する
革新的方法や
00:39
the majorメジャー inequalities不等式 in our world世界.
5
14000
2000
また 現代のグローバル経済における―
00:41
Or even the challenges挑戦 of nation-states民族国家 in the modernモダン globalグローバル economy経済.
6
16000
5000
国家的課題などではありません
00:46
My brief簡潔な, as you've just heard聞いた, is to tell you about statistics統計 --
7
21000
4000
私は統計学について-
00:50
and, to be more precise正確, to tell you some excitingエキサイティング things about statistics統計.
8
25000
3000
より正確に言うと
統計学のワクワクするような話をします
00:53
And that's --
9
28000
1000
それは —
00:54
(Laughter笑い)
10
29000
1000
(笑)
00:55
-- that's ratherむしろ more challenging挑戦
11
30000
2000
他の講演者たちよりも
00:57
than all the speakersスピーカー before me and all the onesもの coming到来 after me.
12
32000
2000
随分と努力が必要です
00:59
(Laughter笑い)
13
34000
1000
(笑)
01:01
One of my senior上級 colleagues同僚 told me, when I was a youngster若者 in this profession職業,
14
36000
5000
私が若輩者だった頃
先輩が誇らしげに教えてくれたのは
01:06
ratherむしろ proudly誇らしげに, that statisticians統計学者 were people who liked好き figures数字
15
41000
4000
統計学者は数字が得意だけれども
01:10
but didn't have the personality skillsスキル to become〜になる accountants会計士.
16
45000
3000
会計士になれるほど
人格者ではないことです
01:13
(Laughter笑い)
17
48000
2000
(笑)
01:15
And there's another別の in-joke冗談 among statisticians統計学者, and that's,
18
50000
3000
もう1つ 統計学者が
内輪で言っているジョークが
01:18
"How do you tell the introverted内向的な statistician統計学者 from the extroverted外向的な statistician統計学者?"
19
53000
3000
「性格が内向的な統計学者と
外向的な統計学者を見分けるには?」
01:21
To whichどの the answer回答 is,
20
56000
2000
答えは
01:23
"The extroverted外向的な statistician's統計学者 the one who looks外見 at the other person's shoes."
21
58000
5000
「外向的統計学者は
相手の身なりをよく見ている」です
01:28
(Laughter笑い)
22
63000
3000
(笑)
01:31
But I want to tell you something useful有用 -- and here it is, so concentrate集中 now.
23
66000
5000
今から役立つことを伝えたいので
よく聞いてください
01:36
This eveningイブニング, there's a reception受付 in the University's大学の Museum博物館 of Naturalナチュラル History歴史.
24
71000
3000
今夜 大学の自然史博物館で
パーティーがあります
01:39
And it's a wonderful素晴らしい setting設定, as I hope希望 you'llあなたは find,
25
74000
2000
お気に召せばいいですが ―
01:41
and a great iconアイコン to the bestベスト of the Victorianビクトリア朝 tradition伝統.
26
76000
5000
素晴らしい場所で
伝統あるビクトリア時代の象徴です
01:46
It's very unlikely起こりそうもない -- in this special特別 setting設定, and this collectionコレクション of people --
27
81000
5000
そんな会場に
こんな方々と一緒にいても
01:51
but you mightかもしれない just find yourselfあなた自身 talking話す to someone誰か you'dあなたは ratherむしろ wish望む that you weren'tなかった.
28
86000
3000
この人とは話したくない
という相手もいるかもしれません
01:54
So here'sここにいる what you do.
29
89000
2000
こうすれば良いのです
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician統計学者."
30
91000
4000
「ご職業は?」と聞かれたら
「統計学者です」と答えてください
02:00
(Laughter笑い)
31
95000
1000
(笑)
02:01
Well, exceptを除いて they've彼らは been pre-warned事前警告された now, and they'll彼らは know you're making作る it up.
32
96000
4000
ここでネタをばらしてしまったので
今回は見え見えになってしまいましたが
02:05
And then one of two things will happen起こる.
33
100000
2000
普通 次のどちらかのことが起きます
02:07
They'll彼らは eitherどちらか discover発見する their彼らの long-lost長く失われた cousinいとこ in the other cornerコーナー of the roomルーム
34
102000
2000
久しぶりのイトコが
あそこにいるので
02:09
and run走る over and talk to them.
35
104000
2000
話してきますといって去るか
02:11
Or they'll彼らは suddenly突然 become〜になる parched麻痺した and/or hungry空腹 -- and oftenしばしば bothどちらも --
36
106000
3000
突然 のどの渇きや空腹が襲ってきて
02:14
and sprintスプリント off for a drinkドリンク and some foodフード.
37
109000
2000
飲み物や食べ物を急いで取りに行くのです
02:16
And you'llあなたは be left in peace平和 to talk to the person you really want to talk to.
38
111000
4000
あなたは 落ち着いて
本当に話したい人の元へと向かえます
02:20
It's one of the challenges挑戦 in our profession職業 to try and explain説明する what we do.
39
115000
3000
統計学者が何をするか説明するのは
努力を要することの1つです
02:23
We're not top on people's人々の listsリスト for dinnerディナー partyパーティー guestsゲスト and conversations会話 and so on.
40
118000
5000
統計学者はパーティーや会談の
主賓としては招待されません
02:28
And it's something I've never really found見つけた a good way of doing.
41
123000
2000
良い説明方法は
いまだに見つかっていません
02:30
But my wife -- who was then my girlfriendガールフレンド --
42
125000
3000
私の妻は まだガールフレンドだった頃に
02:33
managed管理された it much better than I've ever been ableできる to.
43
128000
3000
私よりも上手く
その質問を切り抜けたことがありました
02:36
Manyたくさんの years ago, when we first started開始した going out, she was workingワーキング for the BBCBBC in Britain英国,
44
131000
3000
付き合い始めた時
彼女はイギリスで BBCに勤めていました
02:39
and I was, at that stageステージ, workingワーキング in Americaアメリカ.
45
134000
2000
私はその頃 アメリカで働いていました
02:41
I was coming到来 back to visit訪問 her.
46
136000
2000
私が彼女を訪ねに来たときのことです
02:43
She told this to one of her colleagues同僚, who said, "Well, what does your boyfriendボーイフレンド do?"
47
138000
6000
「彼氏の職業は?」と聞かれたとき
彼女は同僚にこう答えたのです
02:49
Sarahサラ thought quiteかなり hardハード about the things I'd explained説明した --
48
144000
2000
サラは私の説明を一生懸命
思いだそうとしました
02:51
and she concentrated濃縮, in those days日々, on listening聞いている.
49
146000
4000
当時の彼女は 私の言うことを
ちゃんと聞いていましたから
02:55
(Laughter笑い)
50
150000
2000
(笑)
02:58
Don't tell her I said that.
51
153000
2000
これは内緒にしておいてください
03:00
And she was thinking考え about the work I did developing現像 mathematical数学 modelsモデル
52
155000
4000
私の仕事は
進化と現代的遺伝学を理解するために
03:04
for understanding理解 evolution進化 and modernモダン genetics遺伝学.
53
159000
3000
数学的モデルを発展させることだと
彼女は考えていました
03:07
So when her colleague同僚 said, "What does he do?"
54
162000
3000
ですから 彼女は同僚から
「彼氏の職業は?」と聞かれた時
03:10
She paused一時停止した and said, "He modelsモデル things."
55
165000
4000
間をおいて こう言いました
「彼はモデルをするの」
03:14
(Laughter笑い)
56
169000
1000
(笑)
03:15
Well, her colleague同僚 suddenly突然 got much more interested興味がある than I had any right to expect期待する
57
170000
4000
予期しなかったのですが
その同僚は突然 興味津々になり
03:19
and went行った on and said, "What does he modelモデル?"
58
174000
3000
続けてこう言ったのです
「なんのモデルをしているの?」
03:22
Well, Sarahサラ thought a little bitビット more about my work and said, "Genes遺伝子."
59
177000
3000
で サラはちょっと考えて答えました
「ジーンズ(遺伝子)よ」
03:25
(Laughter笑い)
60
180000
4000
(笑)
03:29
"He modelsモデル genes遺伝子."
61
184000
2000
「彼はジーンズのモデルをするの」
03:31
That is my first love, and that's what I'll tell you a little bitビット about.
62
186000
4000
これで本当に彼女が好きになりましたね
統計学者の仕事の話を続けましょう
03:35
What I want to do more generally一般的に is to get you thinking考え about
63
190000
4000
より一般的な事例を挙げて
皆さんに世の中の
03:39
the place場所 of uncertainty不確実性 and randomnessランダム性 and chanceチャンス in our world世界,
64
194000
3000
不確定で 不規則で 偶然な
出来事を考えてもらい
03:42
and how we react反応する to that, and how well we do or don't think about it.
65
197000
5000
それにどう反応するか 適切に考えることが
できるかを検討してほしいのです
03:47
So you've had a prettyかなり easy簡単 time up tillまで now --
66
202000
2000
なので ここで
今までのデートの話で
03:49
a few少数 laughs笑う, and all that kind種類 of thing -- in the talks交渉 to date日付.
67
204000
2000
笑うような気楽な時間は終了です
03:51
You've got to think, and I'm going to ask尋ねる you some questions質問.
68
206000
3000
皆さんには
いくつか問題を出したいと思います
03:54
So here'sここにいる the sceneシーン for the first question質問 I'm going to ask尋ねる you.
69
209000
2000
第一問
こういう状況です
03:56
Can you imagine想像する tossing投げる a coinコイン successively連続的に?
70
211000
3000
繰り返しコインを投げます
03:59
And for some reason理由 -- whichどの shall〜する remain残る ratherむしろ vague曖昧 --
71
214000
3000
ある理由があって―
それには特に触れませんが
04:02
we're interested興味がある in a particular特に patternパターン.
72
217000
2000
私たちはある特徴的パターンに
興味を持ちます
04:04
Here'sここにいる one -- a head, followed続く by a tail, followed続く by a tail.
73
219000
3000
これが そのパターンです
コインの表が出て 次に裏・裏
04:07
So suppose想定する we tossトス a coinコイン repeatedly繰り返し.
74
222000
3000
コインを何度も
繰り返し投げることにします
04:10
Then the patternパターン, head-tail-tail頭 - 尾 - 尾, that we've私たちは suddenly突然 become〜になる fixated固定された with happens起こる here.
75
225000
5000
すると 注目している
表・裏・裏のパターンがここで起こります
04:15
And you can countカウント: one, two, three, four4つの, five, six6, sevenセブン, eight8, nine9人, 10 --
76
230000
4000
数えられますね
1 2 3 4 5 6 7 8 9 10
04:19
it happens起こる after the 10thth tossトス.
77
234000
2000
10回目のコイントスの後の結果です
04:21
So you mightかもしれない think there are more interesting面白い things to do, but humorユーモア me for the moment瞬間.
78
236000
3000
他にも興味深いことがと思うかもしれません
でもちょっとお待ちください
04:24
Imagine想像する this halfハーフ of the audience聴衆 each get out coinsコイン, and they tossトス them
79
239000
4000
観客を半分に分けて
表・裏・裏のパターンが出るまで
04:28
until〜まで they first see the patternパターン head-tail-tail頭 - 尾 - 尾.
80
243000
3000
各々がコインを投げると思ってください
04:31
The first time they do it, maybe it happens起こる after the 10thth tossトス, as here.
81
246000
2000
1度目には このように10回投げた後の結果はこうなり
04:33
The second二番 time, maybe it's after the fourth第4 tossトス.
82
248000
2000
2度目は4回のトスで
起こるかもしれません
04:35
The next time, after the 15thth tossトス.
83
250000
2000
その次は 15回目のトスの後で
04:37
So you do that lots and lots of times, and you average平均 those numbers数字.
84
252000
3000
それを何度も何度も行って
平均回数を出してください
04:40
That's what I want this side to think about.
85
255000
3000
それが こちら側の半分の人に
やってもらいたいことです
04:43
The other halfハーフ of the audience聴衆 doesn't like head-tail-tail頭 - 尾 - 尾 --
86
258000
2000
もう半数の観客は
表・裏・裏が好きじゃありません
04:45
they think, for deep深い cultural文化的 reasons理由, that's boring退屈な --
87
260000
3000
彼らは深遠な文化的理由から
そんなのつまらないと思い
04:48
and they're much more interested興味がある in a different異なる patternパターン -- head-tail-headヘッドテールヘッド.
88
263000
3000
他のパターンの方に興味を持ちました
表・裏・表です
04:51
So, on this side, you get out your coinsコイン, and you tossトス and tossトス and tossトス.
89
266000
3000
こちらの方たちはコインを取り出して
トスを何回も繰り返して
04:54
And you countカウント the number of times until〜まで the patternパターン head-tail-headヘッドテールヘッド appears登場する
90
269000
3000
表・裏・表が出るまで
投げた回数を数えて
04:57
and you average平均 them. OK?
91
272000
3000
その平均を出してください
いいですね?
05:00
So on this side, you've got a number --
92
275000
2000
こちらの方たちは
コイントスを繰り返して
05:02
you've done完了 it lots of times, so you get it accurately正確に --
93
277000
2000
表・裏・裏が出るまでの
05:04
whichどの is the average平均 number of tossesトース until〜まで head-tail-tail頭 - 尾 - 尾.
94
279000
3000
平均回数を正確に導きだしてください
05:07
On this side, you've got a number -- the average平均 number of tossesトース until〜まで head-tail-headヘッドテールヘッド.
95
282000
4000
こちらの皆さんは同様に
表・裏・表の平均回数を出して下さい
05:11
So here'sここにいる a deep深い mathematical数学 fact事実 --
96
286000
2000
数学的事実は以下の通りです
05:13
if you've got two numbers数字, one of three things must必須 be true真実.
97
288000
3000
2つの平均回数が導き出せたら
次の3つの内1つが真実のはずです
05:16
Eitherいずれか they're the same同じ, or this one's一人 biggerより大きい than this one,
98
291000
3000
2つとも同じ数か
こちら側の数が多いか
05:19
or this one's一人 biggerより大きい than that one.
99
294000
1000
反対側の数が多いか
05:20
So what's going on here?
100
295000
3000
さて どうなるでしょう?
05:23
So you've all got to think about this, and you've all got to vote投票 --
101
298000
2000
皆さんがこの問題を理解して
投票して欲しいと思います
05:25
and we're not moving動く on.
102
300000
1000
それまで 次へは進みません
05:26
And I don't want to end終わり up in the two-minute2分 silence沈黙
103
301000
2000
2分間静かに考えて
全員が答えを出して下さいね
05:28
to give you more time to think about it, until〜まで everyone's誰もが expressed表現された a view見る. OK.
104
303000
4000
もっと時間が必要だ
という状況にはしたくありません
05:32
So what you want to do is compare比較する the average平均 number of tossesトース until〜まで we first see
105
307000
4000
では 最初に表・裏・表が出た
コイントス回数と
05:36
head-tail-headヘッドテールヘッド with the average平均 number of tossesトース until〜まで we first see head-tail-tail頭 - 尾 - 尾.
106
311000
4000
表・裏・裏が出た回数を
比べましょう
05:41
Who thinks考える that A is true真実 --
107
316000
2000
Aが真実だと思う人はいますか?
05:43
that, on average平均, it'llそれはよ take longerより長いです to see head-tail-headヘッドテールヘッド than head-tail-tail頭 - 尾 - 尾?
108
318000
4000
「平均で表・裏・表の方が
表・裏・裏より回数が多い」です
05:47
Who thinks考える that B is true真実 -- that on average平均, they're the same同じ?
109
322000
3000
Bが真実だと思う人は?
「平均回数は同じ」
05:51
Who thinks考える that C is true真実 -- that, on average平均, it'llそれはよ take lessもっと少なく time
110
326000
2000
Cが真実だと思う人は?
「平均で表・裏・表の方が
05:53
to see head-tail-headヘッドテールヘッド than head-tail-tail頭 - 尾 - 尾?
111
328000
3000
表・裏・裏より回数が少ない」
05:57
OK, who hasn't持っていない voted投票された yetまだ? Because that's really naughtyいたずら -- I said you had to.
112
332000
3000
まだ投票してない人はいますか?
それはだめですよ
06:00
(Laughter笑い)
113
335000
1000
(笑)
06:02
OK. So most最も people think B is true真実.
114
337000
3000
ほとんどの人が
Bを真実だと思っていますので
06:05
And you mightかもしれない be relieved安心した to know even ratherむしろ distinguished著名な mathematicians数学者 think that.
115
340000
3000
超優秀な数学者もそう考えると知れば
少しは安心ですよね
06:08
It's not. A is true真実 here.
116
343000
4000
ところが Aが真実なのです
06:12
It takes longerより長いです, on average平均.
117
347000
2000
こちらの平均回数の方が多いのです
06:14
In fact事実, the average平均 number of tossesトース tillまで head-tail-headヘッドテールヘッド is 10
118
349000
2000
実は 表・裏・表が出るまで
平均回数は10回で
06:16
and the average平均 number of tossesトース until〜まで head-tail-tail頭 - 尾 - 尾 is eight8.
119
351000
5000
表・裏・裏の平均は8回です
06:21
How could that be?
120
356000
2000
どうしてこうなったのでしょう?
06:24
Anything different異なる about the two patternsパターン?
121
359000
3000
2つのパターンに違いはあるのか?
06:30
There is. Head-tail-headヘッドテールヘッド overlapsオーバーラップ itself自体.
122
365000
5000
表・裏・表はそれ自身に
重なっているのです
06:35
If you went行った head-tail-head-tail-headヘッドテールヘッドテールヘッド, you can cunningly狡猾に get two occurrences発生
123
370000
4000
表・裏・表・裏・表と出たら
たった5回のトスで
06:39
of the patternパターン in only five tossesトース.
124
374000
3000
そのパターンが2回発生しています
06:42
You can't do that with head-tail-tail頭 - 尾 - 尾.
125
377000
2000
表・裏・裏ではそんなことは起こりません
06:44
That turnsターン out to be important重要.
126
379000
2000
それが肝です
06:46
There are two ways方法 of thinking考え about this.
127
381000
2000
そこには2つの考え方があります
06:48
I'll give you one of them.
128
383000
2000
その1つを説明しましょう
06:50
So imagine想像する -- let's suppose想定する we're doing it.
129
385000
2000
先ほどやったことを思い出してください
06:52
On this side -- remember思い出す, you're excited興奮した about head-tail-tail頭 - 尾 - 尾;
130
387000
2000
こちら側の皆さんは
表・裏・裏を期待していました
06:54
you're excited興奮した about head-tail-headヘッドテールヘッド.
131
389000
2000
反対側は表・裏・表を期待していました
06:56
We start開始 tossing投げる a coinコイン, and we get a head --
132
391000
3000
コインを投げたら
表が出ました
06:59
and you start開始 sitting座っている on the edgeエッジ of your seatシート
133
394000
1000
皆さんは椅子に座り直します
07:00
because something great and wonderful素晴らしい, or awesome驚くばかり, mightかもしれない be about to happen起こる.
134
395000
5000
何か凄くて素晴らしくて
ステキなことが起こりそうだからです
07:05
The next tossトス is a tail -- you get really excited興奮した.
135
400000
2000
次のトスは裏です
嬉しいですね
07:07
The champagne'sシャンパン on ice just next to you; you've got the glasses眼鏡 chilled冷たい to celebrate祝う.
136
402000
4000
氷の上のシャンパンがそばにあります
お祝いの冷えたシャンパングラスがあります
07:11
You're waiting待っている with bated入札 breath呼吸 for the final最後の tossトス.
137
406000
2000
息をのんで
最後のトスを待ちます
07:13
And if it comes来る down a head, that's great.
138
408000
2000
次に表が出たら素晴らしい!
07:15
You're done完了, and you celebrate祝う.
139
410000
2000
やった!お祝いだ!
07:17
If it's a tail -- well, ratherむしろ disappointedly失望して, you put the glasses眼鏡 away
140
412000
2000
裏だったら 少々ガッカリして
シャンパングラスを退け
07:19
and put the champagneシャンパン back.
141
414000
2000
シャンパンを返却します
07:21
And you keep tossing投げる, to wait for the next head, to get excited興奮した.
142
416000
3000
そして 次の表が出るまで
興奮するためのコイントスを続けます
07:25
On this side, there's a different異なる experience経験.
143
420000
2000
こちらは違う経験です
07:27
It's the same同じ for the first two parts部品 of the sequenceシーケンス.
144
422000
3000
最初の2つの結果は同じです
07:30
You're a little bitビット excited興奮した with the first head --
145
425000
2000
最初に表が出た時は少し興奮します
07:32
you get ratherむしろ more excited興奮した with the next tail.
146
427000
2000
次に裏が出たらもっと興奮します
07:34
Then you tossトス the coinコイン.
147
429000
2000
そして コインを投げます
07:36
If it's a tail, you crack亀裂 open開いた the champagneシャンパン.
148
431000
3000
裏が出たら
シャンパンを開けます
07:39
If it's a head you're disappointed失望した,
149
434000
2000
もし表が出たらガッカリです
07:41
but you're still a third三番 of the way to your patternパターン again.
150
436000
3000
それでも パターンの
3分の1は達成しているのです
07:44
And that's an informal非公式 way of presentingプレゼンテーション it -- that's why there's a difference.
151
439000
4000
くだけた感じの説明でしたが
2つのパターンが違うはこのためです
07:48
Anotherもう一つ way of thinking考え about it --
152
443000
2000
もう1つの考え方は
07:50
if we tossed投げた a coinコイン eight8 million百万 times,
153
445000
2000
もし 800万回コイントスをして
07:52
then we'd結婚した expect期待する a million百万 head-tail-headsヘッドテールヘッド
154
447000
2000
表・裏・表も
表・裏・裏も
07:54
and a million百万 head-tail-tails頭 - 尾 - 尾 -- but the head-tail-headsヘッドテールヘッド could occur発生する in clumps.
155
449000
7000
100万回出ると予測しますが
表・裏・表は塊で出ることが可能です
08:01
So if you want to put a million百万 things down amongst間に eight8 million百万 positionsポジション
156
456000
2000
800万ヶ所に
100万個のものを置きたいなら
08:03
and you can have some of them overlapping重複, the clumps will be furtherさらに apart離れて.
157
458000
5000
そのいくつかは重なることもできます
すると塊はもっと離れることになります
08:08
It's another別の way of getting取得 the intuition直感.
158
463000
2000
これが直感的に理解する
もう1つの方法なのです
08:10
What's the pointポイント I want to make?
159
465000
2000
お伝えしたいポイントは
この問題が
08:12
It's a very, very simple単純 example, an easily簡単に stated述べました question質問 in probability確率,
160
467000
4000
確率における
とても単純で簡潔な例題であり
08:16
whichどの everyすべて -- you're in good company会社 -- everybodyみんな gets取得 wrong違う.
161
471000
3000
ここにいる皆さんまでもが
間違いを犯すものだということです
08:19
This is my little diversion流用 into my realリアル passion情熱, whichどの is genetics遺伝学.
162
474000
4000
私が本当に興味を持っている遺伝学にも
同じようなことがあります
08:23
There's a connection接続 betweenの間に head-tail-headsヘッドテールヘッド and head-tail-tails頭 - 尾 - 尾 in genetics遺伝学,
163
478000
3000
遺伝学でも表・裏・表と
表・裏・裏に関連があります
08:26
and it's the following以下.
164
481000
3000
以下の通りです
08:29
When you tossトス a coinコイン, you get a sequenceシーケンス of heads and tails.
165
484000
3000
コインを投げると 表・裏の
順番が発生します
08:32
When you look at DNADNA, there's a sequenceシーケンス of not two things -- heads and tails --
166
487000
3000
DNAを観察すると順番がありますが
それは表・裏の2つではなく
08:35
but four4つの letters手紙 -- As, GsGs, CsCs and TsTs.
167
490000
3000
A G C Tの4文字からなるものです
08:38
And there are little chemical化学 scissorsはさみ, calledと呼ばれる restriction制限 enzymes酵素
168
493000
3000
そして そこには「制限酵素」と呼ばれる
小さい化学的ハサミがあります
08:41
whichどの cutカット DNADNA wheneverいつでも they see particular特に patternsパターン.
169
496000
2000
このハサミは あるパターンに遭遇すると
そこでDNAを切ります
08:43
And they're an enormously巨大 useful有用 toolツール in modernモダン molecular分子 biology生物学.
170
498000
4000
現代分子生物学で
このハサミは非常に便利な道具です
08:48
And instead代わりに of asking尋ねる the question質問, "How long until〜まで I see a head-tail-headヘッドテールヘッド?" --
171
503000
3000
そして「表・裏・表が出るまでの長さは?」
という質問ではなく
08:51
you can ask尋ねる, "How big大きい will the chunksチャンク be when I use a restriction制限 enzyme酵素
172
506000
3000
「G-A-A-Gパターンが出た時に
08:54
whichどの cutsカット wheneverいつでも it sees見える G-A-A-GGAAG, for example?
173
509000
4000
制御酵素で切るとして
その塊の長さは?」と―
08:58
How long will those chunksチャンク be?"
174
513000
2000
質問できるわけです
09:00
That's a ratherむしろ trivial自明 connection接続 betweenの間に probability確率 and genetics遺伝学.
175
515000
5000
これは確率と遺伝学の間の
些細な問題ですが
09:05
There's a much deeperもっと深く connection接続, whichどの I don't have time to go into
176
520000
3000
説明する時間が無いのですが
そこには もっと深い関連があります
09:08
and that is that modernモダン genetics遺伝学 is a really excitingエキサイティング areaエリア of science科学.
177
523000
3000
だから現代遺伝学は
本当にワクワクする科学分野なのです
09:11
And we'll私たちは hear聞く some talks交渉 later後で in the conference会議 specifically具体的に about that.
178
526000
4000
この後にも同じことについての
TEDトークがありますよ
09:15
But it turnsターン out that unlocking解錠 the secrets秘密 in the information情報 generated生成された by modernモダン
179
530000
4000
現代の実験技術から生まれた情報で
09:19
experimental実験的 technologiesテクノロジー, a keyキー part of that has to do with fairlyかなり sophisticated洗練された --
180
534000
5000
解明した結果の重要部分は
かなり洗練されています
09:24
you'llあなたは be relieved安心した to know that I do something useful有用 in my day jobジョブ,
181
539000
3000
皆さんご安心ください
私の日常の仕事は
09:27
ratherむしろ more sophisticated洗練された than the head-tail-headヘッドテールヘッド storyストーリー --
182
542000
2000
表裏よりも
もっと高等で有益なことです
09:29
but quiteかなり sophisticated洗練された computerコンピューター modelingsモデリング and mathematical数学 modelingsモデリング
183
544000
4000
とても複雑なコンピューターモデリングと
数学的モデリングと
09:33
and modernモダン statistical統計的 techniques技術.
184
548000
2000
統計学的モデリングをしています
09:35
And I will give you two little snippetsスニペット -- two examples --
185
550000
3000
では 皆さんにオックスフォード大学の
私の研究チームが
09:38
of projectsプロジェクト we're involved関係する in in my groupグループ in Oxfordオックスフォード,
186
553000
3000
参加している2つのプロジェクトを
少しご説明します
09:41
bothどちらも of whichどの I think are ratherむしろ excitingエキサイティング.
187
556000
2000
2つともとても面白いですよ
09:43
You know about the Human人間 Genomeゲノム Projectプロジェクト.
188
558000
2000
ヒトゲノム計画はご存知でしょう
09:45
That was a projectプロジェクト whichどの aimed目標 to read読む one copyコピー of the human人間 genomeゲノム.
189
560000
4000
それは一人分のゲノム全体を
読み解くことを目的としていました
09:51
The naturalナチュラル thing to do after you've done完了 that --
190
566000
2000
それが完了したので
次は
09:53
and that's what this projectプロジェクト, the International国際 HapMapHapMap Projectプロジェクト,
191
568000
2000
国際HapMap計画です
09:55
whichどの is a collaborationコラボレーション betweenの間に labsラボ in five or six6 different異なる countries.
192
570000
5000
これは5~6カ国の研究室が
共同で行っています
10:00
Think of the Human人間 Genomeゲノム Projectプロジェクト as learning学習 what we've私たちは got in common一般,
193
575000
4000
ヒトゲノム計画では
人類共通の遺伝情報について解析しましたが
10:04
and the HapMapHapMap Projectプロジェクト is trying試す to understandわかる
194
579000
2000
HapMap計画は民族集団の間にある違いを
10:06
where there are differences相違 betweenの間に different異なる people.
195
581000
2000
解明しようとしています
10:08
Why do we careお手入れ about that?
196
583000
2000
何故それが必要なのでしょうか?
10:10
Well, there are lots of reasons理由.
197
585000
2000
その理由は沢山あります
10:12
The most最も pressing押す one is that we want to understandわかる how some differences相違
198
587000
4000
最も緊急な課題は
どの遺伝子の違いが
10:16
make some people susceptible影響を受けやすいです to one disease疾患 -- type-タイプ-2 diabetes糖尿病, for example --
199
591000
4000
2型糖尿病や心臓病
脳卒中 自閉症などの
10:20
and other differences相違 make people more susceptible影響を受けやすいです to heartハート disease疾患,
200
595000
5000
疾患を発症しやすくさせるかということを
10:25
or strokeストローク, or autism自閉症 and so on.
201
600000
2000
解明することです
10:27
That's one big大きい projectプロジェクト.
202
602000
2000
これが1つの大きなプロジェクトです
10:29
There's a second二番 big大きい projectプロジェクト,
203
604000
2000
2番目の大きなプロジェクトは
10:31
recently最近 funded資金提供 by the Wellcomeウェルカム Trust信頼 in this country,
204
606000
2000
最近 ウェルカム・トラスト
(研究者支援団体)から
10:33
involving関与する very large studies研究 --
205
608000
2000
研究費提供を受けています
10:35
thousands of individuals個人, with each of eight8 different異なる diseases病気,
206
610000
3000
1型および 2型糖尿病
冠動脈性心疾患 双極性障害 など
10:38
common一般 diseases病気 like type-タイプ-1 and type-タイプ-2 diabetes糖尿病, and coronary冠状 heartハート disease疾患,
207
613000
4000
頻度の高い8つの疾患の
それぞれの患者が何千人も協力して
10:42
bipolarバイポーラ disease疾患 and so on -- to try and understandわかる the genetics遺伝学.
208
617000
4000
その遺伝子を解析するという
大がかりなものです
10:46
To try and understandわかる what it is about genetic遺伝的な differences相違 that causes原因 the diseases病気.
209
621000
3000
その疾患を引き起こす
遺伝子の違いを解析するのです
10:49
Why do we want to do that?
210
624000
2000
なぜ そんなことをしたいのか?
10:51
Because we understandわかる very little about most最も human人間 diseases病気.
211
626000
3000
なぜなら ヒトの疾患について
ほとんど 解明されていないからです
10:54
We don't know what causes原因 them.
212
629000
2000
疾患の原因を知らないのです
10:56
And if we can get in at the bottom and understandわかる the genetics遺伝学,
213
631000
2000
もしも 人類が遺伝学について
その基本を理解したなら
10:58
we'll私たちは have a window on the way the disease疾患 works作品,
214
633000
3000
病気の仕組みが理解できて
11:01
and a whole全体 new新しい way about thinking考え about disease疾患 therapiesセラピー
215
636000
2000
治療や予防的措置などについての
11:03
and preventative予防的な treatment処理 and so on.
216
638000
3000
考え方が一新するでしょう
11:06
So that's, as I said, the little diversion流用 on my mainメイン love.
217
641000
3000
前にも言ったようにこれが
私の情熱の一端です
11:09
Back to some of the more mundane世俗 issues問題 of thinking考え about uncertainty不確実性.
218
644000
5000
もっとありふれた
「不確かさ」について考える問題に戻りましょう
11:14
Here'sここにいる another別の quizクイズ for you --
219
649000
2000
皆さんにもう1つクイズがあります
11:16
now suppose想定する we've私たちは got a testテスト for a disease疾患
220
651000
2000
あなたはある病気に対して
完全ではないが
11:18
whichどの isn't infallible間違いのない, but it's prettyかなり good.
221
653000
2000
かなり良い検査を受けました
11:20
It gets取得 it right 99 percentパーセント of the time.
222
655000
3000
その検査は99%正確です
11:23
And I take one of you, or I take someone誰か off the street通り,
223
658000
3000
私は皆さんの内の1人
もしくは通行人から数人を選んで
11:26
and I testテスト them for the disease疾患 in question質問.
224
661000
2000
その検査をしたとします
11:28
Let's suppose想定する there's a testテスト for HIVHIV -- the virusウイルス that causes原因 AIDSエイズ --
225
663000
4000
例えばHIV(エイズウィルス)の
検査だとしましょう
11:32
and the testテスト says言う the person has the disease疾患.
226
667000
3000
そして 検査結果は
陽性(感染あり)だったとします
11:35
What's the chanceチャンス that they do?
227
670000
3000
彼らが本当にHIVに罹っている可能性は?
11:38
The testテスト gets取得 it right 99 percentパーセント of the time.
228
673000
2000
99%正確なテストですよ
11:40
So a naturalナチュラル answer回答 is 99 percentパーセント.
229
675000
4000
99%と答えるのが当たり前ですね
11:44
Who likes好きな人 that answer回答?
230
679000
2000
そうだと思う人は?
11:46
Come on -- everyone's誰もが got to get involved関係する.
231
681000
1000
皆さん参加して下さいよ!
11:47
Don't think you don't trust信頼 me anymoreもう.
232
682000
2000
誰一人として
私を信用していないとは思いませんが
11:49
(Laughter笑い)
233
684000
1000
(笑)
11:50
Well, you're right to be a bitビット skeptical懐疑的な, because that's not the answer回答.
234
685000
3000
皆さんは
「少し疑った方が良いかも 答えは違うのです」
11:53
That's what you mightかもしれない think.
235
688000
2000
そう思っているかも知れません
11:55
It's not the answer回答, and it's not because it's only part of the storyストーリー.
236
690000
3000
答えは違います
何故なら 話はまだ一部だからです
11:58
It actually実際に depends依存する on how common一般 or how rareまれな the disease疾患 is.
237
693000
3000
実は 罹患率の高さで
この答えは変わってきます
12:01
So let me try and illustrate説明する that.
238
696000
2000
詳しく説明しましょう
12:03
Here'sここにいる a little caricature風刺画 of a million百万 individuals個人.
239
698000
4000
ここに100万人を表した図があります
12:07
So let's think about a disease疾患 that affects影響を与える --
240
702000
3000
1万人に1人しか罹らない
12:10
it's prettyかなり rareまれな, it affects影響を与える one person in 10,000.
241
705000
2000
とても罹患率の低い病気を考えましょう
12:12
Amongst中でも these million百万 individuals個人, most最も of them are healthy健康
242
707000
3000
100万人のうち
ほとんどは健康で
12:15
and some of them will have the disease疾患.
243
710000
2000
わずかの人数がその患者です
12:17
And in fact事実, if this is the prevalence有病率 of the disease疾患,
244
712000
3000
先ほどの罹患率で言えば
12:20
about 100 will have the disease疾患 and the rest残り won't〜されません.
245
715000
3000
100人だけが病気です
12:23
So now suppose想定する we testテスト them all.
246
718000
2000
では 全員を検査するとして
12:25
What happens起こる?
247
720000
2000
どうなるでしょう?
12:27
Well, amongst間に the 100 who do have the disease疾患,
248
722000
2000
病気にかかっている100人の内で
12:29
the testテスト will get it right 99 percentパーセント of the time, and 99 will testテスト positiveポジティブ.
249
724000
5000
99%正確な検査なので
99人の検査が陽性となります
12:34
Amongst中でも all these other people who don't have the disease疾患,
250
729000
2000
残りの病気じゃない人たちにも
12:36
the testテスト will get it right 99 percentパーセント of the time.
251
731000
3000
99%正確な検査ですので
12:39
It'llそれは only get it wrong違う one percentパーセント of the time.
252
734000
2000
1%に間違った結果が出ます
12:41
But there are so manyたくさんの of them that there'llそこに be an enormous巨大な number of false positivesポジティブ.
253
736000
4000
結果 多くの数の人たちが
偽陽性になってしまうのです
12:45
Put that another別の way --
254
740000
2000
こうも考えられます―
12:47
of all of them who testテスト positiveポジティブ -- so here they are, the individuals個人 involved関係する --
255
742000
5000
陽性の結果が出た全員の内で
―こちらの人たちです―
12:52
lessもっと少なく than one in 100 actually実際に have the disease疾患.
256
747000
5000
実際の患者は
100分の1よりも低い確率です
12:57
So even thoughしかし we think the testテスト is accurate正確, the important重要 part of the storyストーリー is
257
752000
4000
ですから 正確だと思える検査でも
そのほとんどの場合で
13:01
there's another別の bitビット of information情報 we need.
258
756000
3000
もっと情報が必要なのです
13:04
Here'sここにいる the keyキー intuition直感.
259
759000
2000
これがキーなのです
13:07
What we have to do, once一度 we know the testテスト is positiveポジティブ,
260
762000
3000
検査で陽性と出た時に
やらなければないけないことは
13:10
is to weigh体重を計る up the plausibility妥当性, or the likelihood尤度, of two competing競合する explanations説明.
261
765000
6000
その妥当性や もっともらしさ(尤度)を
対立する2つの仮説から評価することです
13:16
Each of those explanations説明 has a likelyおそらく bitビット and an unlikely起こりそうもない bitビット.
262
771000
3000
その仮説にはそれぞれ
少しずつ成立する時としない時があります
13:19
One explanation説明 is that the person doesn't have the disease疾患 --
263
774000
3000
ランダムに1人を選んだ場合
一方の仮説では
13:22
that's overwhelmingly圧倒的に likelyおそらく, if you pickピック someone誰か at randomランダム --
264
777000
3000
その人が病気でない尤度は
非常に高いが
13:25
but the testテスト gets取得 it wrong違う, whichどの is unlikely起こりそうもない.
265
780000
3000
検査結果が間違い(偽陽性)である
尤度は低い
13:29
The other explanation説明 is that the person does have the disease疾患 -- that's unlikely起こりそうもない --
266
784000
3000
もう一方の仮説は
その人が病気である尤度は低いが
13:32
but the testテスト gets取得 it right, whichどの is likelyおそらく.
267
787000
3000
検査結果が正しい(真陽性)
尤度は高いというものです
13:35
And the number we end終わり up with --
268
790000
2000
最終的に統計学者が出すのは
13:37
that number whichどの is a little bitビット lessもっと少なく than one in 100 --
269
792000
3000
その可能性が100分の1より低いかどうか
13:40
is to do with how likelyおそらく one of those explanations説明 is relative相対 to the other.
270
795000
6000
つまり どちらの仮説が他方より
高い尤度をもつかということです
13:46
Each of them taken撮影 together一緒に is unlikely起こりそうもない.
271
801000
2000
いずれの仮説も総合的には尤度が低いのです
13:49
Here'sここにいる a more topical局所的 example of exactly正確に the same同じ thing.
272
804000
3000
もっと話題になるような例を出してみましょう
13:52
Those of you in Britain英国 will know about what's become〜になる ratherむしろ a celebrated祝われた case場合
273
807000
4000
イギリス人ならサリー・クラークの
有名な事例をご存知でしょう
13:56
of a woman女性 calledと呼ばれる Sallyサリー Clarkクラーク, who had two babies赤ちゃん who died死亡しました suddenly突然.
274
811000
5000
彼女には赤ん坊が2人いましたが
突然 亡くなってしまいました
14:01
And initially当初, it was thought that they died死亡しました of what's known既知の informally非公式に as "cotコットン death,"
275
816000
4000
当初 その2人は「コット・デス」
つまり 新生児突然死症候群で
14:05
and more formally公式に as "Sudden突然 Infant幼児 Death Syndrome症候群."
276
820000
3000
亡くなったと考えられていました
14:08
For various様々な reasons理由, she was later後で charged荷担した with murder殺人.
277
823000
2000
しかし いろいろあって
サリーは殺人者にさせられたのです
14:10
And at the trial試行, her trial試行, a very distinguished著名な pediatrician小児科医 gave与えた evidence証拠
278
825000
4000
裁判では とても著名な小児科医が
こう証言しました
14:14
that the chanceチャンス of two cotコットン deaths, innocent無実 deaths, in a family家族 like hers彼女たち --
279
829000
5000
「サリーの様に専門的職業を持ち
かつ非喫煙者の家庭にコット・デスが
14:19
whichどの was professional専門家 and non-smoking禁煙 -- was one in 73 million百万.
280
834000
6000
非犯罪的に2回も起こる確率は
7,300万分の1である」
14:26
To cutカット a long storyストーリー shortショート, she was convicted有罪となった at the time.
281
841000
3000
端折りますが
サリーは有罪判決を受けました
14:29
Later後で, and fairlyかなり recently最近, acquitted無罪 on appealアピール -- in fact事実, on the second二番 appealアピール.
282
844000
5000
その後つい最近になって
控訴審で無罪になりました
14:34
And just to setセット it in contextコンテキスト, you can imagine想像する how awful補うステまにくるににステまし補うま it is for someone誰か
283
849000
4000
その人の身になって考えてみて下さい
我が子を2人も
14:38
to have lost失われた one child, and then two, if they're innocent無実,
284
853000
3000
たて続けに亡くした人が
2人を殺したとして有罪になる
14:41
to be convicted有罪となった of murdering殺人 them.
285
856000
2000
この事件が犯罪でなかったとしたら
どれだけひどいことでしょう
14:43
To be put throughを通して the stress応力 of the trial試行, convicted有罪となった of murdering殺人 them --
286
858000
2000
裁判を通しての精神的重圧や
殺人と判決されること
14:45
and to spend費やす time in a women's婦人向け prison刑務所, where all the other prisoners捕虜
287
860000
3000
女性刑務所で過ごす間
他の犯罪者に子どもを殺したと思われることは
14:48
think you killed殺された your children子供 -- is a really awful補うステまにくるににステまし補うま thing to happen起こる to someone誰か.
288
863000
5000
当事者にとって
本当に悲劇と言いようがありません
14:53
And it happened起こった in large part here because the expert専門家 got the statistics統計
289
868000
5000
そんなことが実際に起こったのです
何故ならその専門家は2つの方法で
14:58
horribly恐ろしく wrong違う, in two different異なる ways方法.
290
873000
3000
統計を間違って解釈したのです
15:01
So where did he get the one in 73 million百万 number?
291
876000
4000
その小児科医は7,300万分の1という数字を
どこから出したのでしょう?
15:05
He looked見た at some research研究, whichどの said the chanceチャンス of one cotコットン death in a family家族
292
880000
3000
彼が読んだいくつかの研究には
サリーと似たような家庭内で起こる
15:08
like Sallyサリー Clark'sクラーク is about one in 8,500.
293
883000
5000
コット・デスは約8,500分の1とあったのです
15:13
So he said, "I'll assume想定する that if you have one cotコットン death in a family家族,
294
888000
4000
ですから 彼はこう言いました
「家庭内のコット・デスが一度 起きた場合と
15:17
the chanceチャンス of a second二番 child dying死ぬ from cotコットン death aren'tない changedかわった."
295
892000
4000
2度目のコット・デスが起こる確率は
変わらないと仮定する」
15:21
So that's what statisticians統計学者 would call an assumption仮定 of independence独立.
296
896000
3000
統計学者はこれを
「事象が独立である」と言い
15:24
It's like saying言って, "If you tossトス a coinコイン and get a head the first time,
297
899000
2000
「コイントスをして 最初に表が出ても
15:26
that won't〜されません affect影響を与える the chanceチャンス of getting取得 a head the second二番 time."
298
901000
3000
2回目も表が出る確率に影響しない」
と言うことです
15:29
So if you tossトス a coinコイン twice二度, the chanceチャンス of getting取得 a head twice二度 are a halfハーフ --
299
904000
5000
つまり コインを2回トスして
2回とも表になる可能性は
15:34
that's the chanceチャンス the first time -- times a halfハーフ -- the chanceチャンス a second二番 time.
300
909000
3000
1回目の確率の50%で
0.5 × 0.5になるのです
15:37
So he said, "Here,
301
912000
2000
だから 彼はこう言いました
15:39
I'll assume想定する that these eventsイベント are independent独立した.
302
914000
4000
「2つの出来事は独立していると仮定する
15:43
When you multiplyかける 8,500 together一緒に twice二度,
303
918000
2000
8,500を二乗すれば
15:45
you get about 73 million百万."
304
920000
2000
7,300万になる」
15:47
And noneなし of this was stated述べました to the court裁判所 as an assumption仮定
305
922000
2000
それが 仮定だとは
裁判で語られませんでしたし
15:49
or presented提示された to the jury陪審 that way.
306
924000
2000
陪審員にも
そのように伝えていませんでした
15:52
Unfortunately残念ながら here -- and, really, regrettably残念なことに --
307
927000
3000
とても残念です
15:55
first of all, in a situation状況 like this you'dあなたは have to verify確認する it empirically経験的に.
308
930000
4000
まず最初に この状況では
その仮定が経験的に妥当か確かめるべきでした
15:59
And secondly第二に, it's palpably明らかに false.
309
934000
2000
第二に それは明白な誤りです
16:02
There are lots and lots of things that we don't know about sudden突然 infant幼児 deaths.
310
937000
5000
新生児の突然死には
解明されていないことが山ほどあります
16:07
It mightかもしれない well be that there are environmental環境 factors要因 that we're not aware承知して of,
311
942000
3000
まだ 発見されていない
環境因子があるかもしれませんし
16:10
and it's prettyかなり likelyおそらく to be the case場合 that there are
312
945000
2000
まだ発見されていない
遺伝学的因子により
16:12
genetic遺伝的な factors要因 we're not aware承知して of.
313
947000
2000
引き起こされた可能性も高いのです
16:14
So if a family家族 suffers苦しむ from one cotコットン death, you'dあなたは put them in a high-riskリスクが高い groupグループ.
314
949000
3000
ですから コット・デスが起こった家族は
ハイリスク群に属するかも知れません
16:17
They've彼らは probably多分 got these environmental環境 riskリスク factors要因
315
952000
2000
そこには まだ知られていない
環境的危険因子があったり
16:19
and/or genetic遺伝的な riskリスク factors要因 we don't know about.
316
954000
3000
その上 遺伝学的危険因子が
あるかもしれないのです
16:22
And to argue主張する, then, that the chanceチャンス of a second二番 death is as if you didn't know
317
957000
3000
こういう情報を知らないかのように
2番目の死亡の確率を語るのは
16:25
that information情報 is really silly愚かな.
318
960000
3000
本当に愚かなことです
16:28
It's worse悪化する than silly愚かな -- it's really bad悪い science科学.
319
963000
4000
愚かであるよりも
実に悪質な科学です
16:32
Nonethelessそれにもかかわらず, that's how it was presented提示された, and at trial試行 nobody誰も even argued主張した it.
320
967000
5000
それなのに あんなことが裁判で示され
誰もそのことを議論しなかった
16:37
That's the first problem問題.
321
972000
2000
それが最初の問題です
16:39
The second二番 problem問題 is, what does the number of one in 73 million百万 mean?
322
974000
4000
2番目の問題は7,300万分の1という
数字の意味するところです
16:43
So after Sallyサリー Clarkクラーク was convicted有罪となった --
323
978000
2000
サリー・クラークが有罪になった後
16:45
you can imagine想像する, it made ratherむしろ a splashスプラッシュ in the press押す --
324
980000
4000
それが報道で波紋を呼んだというのは
想像に難くありません
16:49
one of the journalistsジャーナリスト from one of Britain'sイギリスの more reputable評判の良い newspapers新聞 wrote書きました that
325
984000
7000
イギリスで影響力のある新聞社の
記者はこう書きました
16:56
what the expert専門家 had said was,
326
991000
2000
「専門家が言うことには―
16:58
"The chanceチャンス that she was innocent無実 was one in 73 million百万."
327
993000
5000
『この女が無罪である確率は
7,300万分の1』とのこと」
17:03
Now, that's a logical論理的 errorエラー.
328
998000
2000
そう これは論理的エラーです
17:05
It's exactly正確に the same同じ logical論理的 errorエラー as the logical論理的 errorエラー of thinking考え that
329
1000000
3000
この論理的エラーは
先ほどの99%確実な検査なら
17:08
after the disease疾患 testテスト, whichどの is 99 percentパーセント accurate正確,
330
1003000
2000
病気に罹っている確率も99%だという
17:10
the chanceチャンス of having持つ the disease疾患 is 99 percentパーセント.
331
1005000
4000
論理的エラーと全く同じものです
17:14
In the disease疾患 example, we had to bearくま in mindマインド two things,
332
1009000
4000
その例から 覚えておくべきことは
2つです
17:18
one of whichどの was the possibility可能性 that the testテスト got it right or not.
333
1013000
4000
1つはその検査が
正しいか正しくないかの可能性
17:22
And the other one was the chanceチャンス, a priori先験的, that the person had the disease疾患 or not.
334
1017000
4000
もう1つは
その人が病気にかかっている可能性の推測
17:26
It's exactly正確に the same同じ in this contextコンテキスト.
335
1021000
3000
この状況では全く同じことです
17:29
There are two things involved関係する -- two parts部品 to the explanation説明.
336
1024000
4000
そこにも2段階の説明が必要です
17:33
We want to know how likelyおそらく, or relatively比較的 how likelyおそらく, two different異なる explanations説明 are.
337
1028000
4000
2つの異なった事象の尤度がどれほどか
また関連して起こる尤度はどうでしょう?
17:37
One of them is that Sallyサリー Clarkクラーク was innocent無実 --
338
1032000
3000
1つ目の事象はサリーが無罪であること
17:40
whichどの is, a priori先験的, overwhelmingly圧倒的に likelyおそらく --
339
1035000
2000
それは常識的に圧倒的に高尤度です
17:42
most最も mothers母親の don't kill殺します their彼らの children子供.
340
1037000
3000
ほとんどの母親は我が子を殺しません
17:45
And the second二番 part of the explanation説明
341
1040000
2000
2つ目の事象は
17:47
is that she suffered苦しんだ an incredibly信じられないほど unlikely起こりそうもない eventイベント.
342
1042000
3000
彼女がこの非常に低尤度な出来事に
遭遇したこと
17:50
Not as unlikely起こりそうもない as one in 73 million百万, but nonethelessそれにもかかわらず ratherむしろ unlikely起こりそうもない.
343
1045000
4000
7,300万分の1の数字程ではありませんが
いずれにしても 起きにくいことです
17:54
The other explanation説明 is that she was guilty有罪.
344
1049000
2000
対する事象はサリーが有罪ということです
17:56
Now, we probably多分 think a priori先験的 that's unlikely起こりそうもない.
345
1051000
2000
今ならそれが普通に考えて
低尤度だと思うでしょう
17:58
And we certainly確かに should think in the contextコンテキスト of a criminal犯罪者 trial試行
346
1053000
3000
刑事裁判として
尤度が低いと考えるべきです
18:01
that that's unlikely起こりそうもない, because of the presumption推定 of innocenceイノセンス.
347
1056000
3000
なぜなら 推定無罪の原則があるからです
18:04
And then if she were trying試す to kill殺します the children子供, she succeeded成功した.
348
1059000
4000
もしも 彼女が我が子を殺そうとしたのなら
成功しました
18:08
So the chanceチャンス that she's innocent無実 isn't one in 73 million百万.
349
1063000
4000
サリーが無罪である可能性は
7300万分の1ではありません
18:12
We don't know what it is.
350
1067000
2000
それがどういう数字になるのか分りません
18:14
It has to do with weighing計量 up the strength of the other evidence証拠 againstに対して her
351
1069000
4000
サリーを有罪とする
根拠の確からしさと
18:18
and the statistical統計的 evidence証拠.
352
1073000
2000
その統計学的根拠で決まります
18:20
We know the children子供 died死亡しました.
353
1075000
2000
分かっているのは
子どもたちが死んだことです
18:22
What matters問題 is how likelyおそらく or unlikely起こりそうもない, relative相対 to each other,
354
1077000
4000
争点は2人の死―2つの事象―には
どれほど関連が
18:26
the two explanations説明 are.
355
1081000
2000
ありうるかということです
18:28
And they're bothどちらも implausible信じ難い.
356
1083000
2000
この2つは両方ともありえないことです
18:31
There's a situation状況 where errorsエラー in statistics統計 had really profound深遠な
357
1086000
4000
そこには本当に理解しがたく
悲劇的結果を生んだ
18:35
and really unfortunate残念な consequences結果.
358
1090000
3000
統計学に関してのエラーでした
18:38
In fact事実, there are two other women女性 who were convicted有罪となった on the basis基礎 of the
359
1093000
2000
この小児科医の論拠が採用されて
他にも2人の女性が
18:40
evidence証拠 of this pediatrician小児科医, who have subsequently続いて been released解放された on appealアピール.
360
1095000
4000
有罪にされましたが
裁判によって結果的に釈放されています
18:44
Manyたくさんの cases症例 were reviewed審査.
361
1099000
2000
多くの事件が再調査されました
18:46
And it's particularly特に topical局所的 because he's currently現在 facing直面する a disrepute評判が悪い charge電荷
362
1101000
4000
この小児科医は現在イギリス医学会議で
18:50
at Britain'sイギリスの General一般 Medical医療 Council評議会.
363
1105000
3000
査問にかけられていることが
話題になっています
18:53
So just to conclude結論づける -- what are the take-home家に持って帰る messagesメッセージ from this?
364
1108000
4000
では まとめます
このことから何を学びましたか?
18:57
Well, we know that randomnessランダム性 and uncertainty不確実性 and chanceチャンス
365
1112000
4000
そうです
不規則や不確定 偶然は
19:01
are very much a part of our everyday毎日 life.
366
1116000
3000
日常的によくあることだということです
19:04
It's alsoまた、 true真実 -- and, althoughただし、, you, as a collective集団, are very special特別 in manyたくさんの ways方法,
367
1119000
5000
また 皆さんは多くの場合で
集団としてとても特別なのです
19:09
you're completely完全に typical典型的な in not getting取得 the examples I gave与えた right.
368
1124000
4000
皆さんがこれらの例を理解できないのは
当たり前のことです
19:13
It's very well documented文書化された that people get things wrong違う.
369
1128000
3000
人々が物事を間違って解釈することは
実証済みです
19:16
They make errorsエラー of logic論理 in reasoning推論 with uncertainty不確実性.
370
1131000
3000
人は不確実な理由付けで
論理的エラーを犯します
19:20
We can cope対処する with the subtleties微妙 of language言語 brilliantly華麗に --
371
1135000
2000
言語の微妙さへの対処は
得意なのですが
19:22
and there are interesting面白い evolutionary進化的 questions質問 about how we got here.
372
1137000
3000
そこにどのようにして到達したかについては
興味深い進化的問題があります
19:25
We are not good at reasoning推論 with uncertainty不確実性.
373
1140000
3000
私たちは 不確かさについて
論証することが苦手なので
19:28
That's an issue問題 in our everyday毎日 lives人生.
374
1143000
2000
日々の生活での難問となります
19:30
As you've heard聞いた from manyたくさんの of the talks交渉, statistics統計 underpins下支え an enormous巨大な amount
375
1145000
3000
多くのTEDトークでわかるように
統計学は広範な科学研究を裏付けます
19:33
of research研究 in science科学 -- in socialソーシャル science科学, in medicine医学
376
1148000
3000
その分野は社会科学や 医学だけでなく
19:36
and indeed確かに, quiteかなり a lot of industry業界.
377
1151000
2000
多くの産業にも渡ります
19:38
All of quality品質 controlコントロール, whichどの has had a majorメジャー impact影響 on industrial工業用 processing処理,
378
1153000
4000
生産過程に大きな影響を与えてきた
品質管理は
19:42
is underpinned下敷き by statistics統計.
379
1157000
2000
全て統計に裏付けられています
19:44
It's something we're bad悪い at doing.
380
1159000
2000
それを理解するのは
私たちが不得意とするところです
19:46
At the very least少なくとも, we should recognize認識する that, and we tend傾向がある not to.
381
1161000
3000
私たちはそれを無視しがちですが
最低限認識はすべきです
19:49
To go back to the legal法的 contextコンテキスト, at the Sallyサリー Clarkクラーク trial試行
382
1164000
4000
サリー・クラークの裁判に立ち返ると
19:53
all of the lawyers弁護士 just accepted受け入れられた what the expert専門家 said.
383
1168000
4000
全ての法律家が
専門家の言いなりになったのです
19:57
So if a pediatrician小児科医 had come out and said to a jury陪審,
384
1172000
2000
ですから
ある小児科医が陪審員に
19:59
"I know how to buildビルドする bridges. I've built建てられた one down the road道路.
385
1174000
3000
「私は橋の建設方法を知っています
この先に橋を作りましたから
20:02
Please driveドライブ your car home over it,"
386
1177000
2000
その橋を通って帰宅してください」
と言ったら
20:04
they would have said, "Well, pediatricians小児科医 don't know how to buildビルドする bridges.
387
1179000
2000
きっとこう返事するでしょう
「小児科医が橋の建設だって?
20:06
That's what engineersエンジニア do."
388
1181000
2000
それはエンジニアがすることだ」
20:08
On the other handハンド, he came来た out and effectively効果的に said, or implied暗黙の,
389
1183000
3000
それなのに 彼のこんな発言は
説得力を発揮しました
20:11
"I know how to reason理由 with uncertainty不確実性. I know how to do statistics統計."
390
1186000
3000
「不確かさの扱いかたを知っています
私は統計を理解しているのですから」
20:14
And everyoneみんな said, "Well, that's fine. He's an expert専門家."
391
1189000
3000
すると 皆はこう言ったのです
「結構ですね 彼は専門家ですから」
20:17
So we need to understandわかる where our competence能力 is and isn't.
392
1192000
3000
ですから 私たちは自分はなにが得意かを
理解する必要があります
20:20
Exactly正確に the same同じ kinds種類 of issues問題 arose起きた in the early早い days日々 of DNADNA profilingプロファイリング,
393
1195000
4000
全く同じ様な問題がDNA鑑定の
初期に発生しました
20:24
when scientists科学者, and lawyers弁護士 and in some cases症例 judges判定,
394
1199000
4000
科学者も法律家も
時には裁判官たちまでも
20:28
routinely日常的に misrepresented虚偽の evidence証拠.
395
1203000
3000
何度も証拠を間違えて提示したのです
20:32
Usually通常 -- one hopes希望 -- innocently無邪気に, but misrepresented虚偽の evidence証拠.
396
1207000
3000
たいてい悪意はなく ―そう願います
誤った証拠を提示したのです
20:35
Forensic法医学 scientists科学者 said, "The chanceチャンス that this guy's男の innocent無実 is one in three million百万."
397
1210000
5000
犯罪学者がこう言いました
「無罪である確率は300万分の1だ」
20:40
Even if you believe the number, just like the 73 million百万 to one,
398
1215000
2000
7300万分の1の数字同様
その数字自体を信じたとしても
20:42
that's not what it meant意味した.
399
1217000
2000
そういう意味ではないのです
20:44
And there have been celebrated祝われた appealアピール cases症例
400
1219000
2000
おかげで イギリスやほかの国でも
20:46
in Britain英国 and elsewhere他の場所 because of that.
401
1221000
2000
よく知られた控訴例が続出しています
20:48
And just to finish仕上げ in the contextコンテキスト of the legal法的 systemシステム.
402
1223000
3000
法律制度の話として締めくくりますと
20:51
It's all very well to say, "Let's do our bestベスト to presentプレゼント the evidence証拠."
403
1226000
4000
「証拠を提出するのに最善を尽くしましょう」
とはよく言われますが
20:55
But more and more, in cases症例 of DNADNA profilingプロファイリング -- this is another別の one --
404
1230000
3000
DNA鑑定のような場合
何度も同じようなことが起こります
20:58
we expect期待する juries陪審員, who are ordinary普通の people --
405
1233000
3000
陪審員は一般人ですし
21:01
and it's documented文書化された they're very bad悪い at this --
406
1236000
2000
検証は苦手だと実証されているのに
21:03
we expect期待する juries陪審員 to be ableできる to cope対処する with the sortsソート of reasoning推論 that goes行く on.
407
1238000
4000
私たちは陪審員が繰り返し出て来る
論証法に対処できることを期待してしまいます
21:07
In other spheres球体 of life, if people argued主張した -- well, exceptを除いて possiblyおそらく for politics政治 --
408
1242000
5000
多分 政治に関する場合を除いて
ある生活側面では論理的に議論し
21:12
but in other spheres球体 of life, if people argued主張した illogically不合理な,
409
1247000
2000
他の側面では論理的でない議論をしたら
21:14
we'd結婚した say that's not a good thing.
410
1249000
2000
それは良くないことだと思うでしょう
21:16
We sortソート of expect期待する it of politicians政治家 and don't hope希望 for much more.
411
1251000
4000
政治家には起こることかもしれませんが
それ以外で起こってほしくはありません
21:20
In the case場合 of uncertainty不確実性, we get it wrong違う all the time --
412
1255000
3000
しかし 不確かさを扱う場合
私たちはいつも間違いを犯します
21:23
and at the very least少なくとも, we should be aware承知して of that,
413
1258000
2000
私たちは
最低限それに気づく必要があります
21:25
and ideally理想的には, we mightかもしれない try and do something about it.
414
1260000
2000
理想を言えば
何か策を講じられればよいのですが
21:27
Thanksありがとう very much.
415
1262000
1000
ありがとうございました
Translated by Tamami Inoue
Reviewed by Masaki Yanagishita

▲Back to top

ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com