ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com
TEDGlobal 2005

Peter Donnelly: How juries are fooled by statistics

Peter Donnelly démontre comment les statistiques peuvent tromper les jurés

Filmed:
1,279,860 views

Le mathématicien d'Oxford Peter Donnelly révèle les fréquentes erreurs humaines d'interprétation en statistique -- et leur effet dévastateur sur l'issue des procès criminels.
- Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom. Full bio

Double-click the English transcript below to play the video.

00:25
As other speakershaut-parleurs have said, it's a ratherplutôt dauntingintimidant experienceexpérience --
0
0
2000
Comme d'autres conférenciers l'ont dit, c'est plutôt intimidant --
00:27
a particularlyparticulièrement dauntingintimidant experienceexpérience -- to be speakingParlant in frontde face of this audiencepublic.
1
2000
3000
particulièrement intimidant -- de parler devant vous.
00:30
But unlikecontrairement à the other speakershaut-parleurs, I'm not going to tell you about
2
5000
3000
Mais contrairement à d'autres, je ne vous parlerai pas
00:33
the mysteriesmystères of the universeunivers, or the wondersmerveilles of evolutionévolution,
3
8000
2000
des mystères de l'univers, des merveilles de l'évolution,
00:35
or the really cleverintelligent, innovativeinnovant waysfaçons people are attackingattaquer
4
10000
4000
ou des manières intelligentes et innovantes de s'attaquer
00:39
the majorMajeur inequalitiesinégalités in our worldmonde.
5
14000
2000
aux grandes inégalités de notre monde.
00:41
Or even the challengesdéfis of nation-statesétat nation in the modernmoderne globalglobal economyéconomie.
6
16000
5000
Ni même des défis des états-nations dans l'économie mondiale moderne.
00:46
My briefbref, as you've just heardentendu, is to tell you about statisticsstatistiques --
7
21000
4000
Mon exposé, comme on vous l'a annoncé, parle de statistiques --
00:50
and, to be more preciseprécis, to tell you some excitingpassionnant things about statisticsstatistiques.
8
25000
3000
et, pour être plus précis, d'aspects vraiment passionnants desstatistiques .
00:53
And that's --
9
28000
1000
Et c'est --
00:54
(LaughterRires)
10
29000
1000
(Rires)
00:55
-- that's ratherplutôt more challengingdifficile
11
30000
2000
-- c'est plus un défi pour moi
00:57
than all the speakershaut-parleurs before me and all the onesceux comingvenir after me.
12
32000
2000
que pour tous les autres conférenciers avant et après moi.
00:59
(LaughterRires)
13
34000
1000
(Rires)
01:01
One of my seniorSénior colleaguescollègues told me, when I was a youngsterenfant in this professionmétier,
14
36000
5000
Un de mes aînés m'a dit, quand je débutais dans ce métier,
01:06
ratherplutôt proudlyfièrement, that statisticiansstatisticiens were people who likedaimé figureschiffres
15
41000
4000
plutôt fièrement, que les statisticiens étaient des gens qui aimaient les chiffres
01:10
but didn't have the personalitypersonnalité skillscompétences to becomedevenir accountantscomptables.
16
45000
3000
mais n'avaient pas la personnalité requise pour devenir comptables.
01:13
(LaughterRires)
17
48000
2000
(Rires)
01:15
And there's anotherun autre in-jokeblague amongparmi statisticiansstatisticiens, and that's,
18
50000
3000
Il y a une autre blague que les statisticiens font à propos d'eux-mêmes,
01:18
"How do you tell the introvertedintroverti statisticianstatisticien from the extrovertedextraverti statisticianstatisticien?"
19
53000
3000
"Quelle est la différence entre un statisticien introverti et un statisticien extraverti ?"
01:21
To whichlequel the answerrépondre is,
20
56000
2000
Et la réponse est,
01:23
"The extrovertedextraverti statistician'sstatisticien the one who looksregards at the other person'spersonne shoeschaussures."
21
58000
5000
"L'extraverti est celui qui regarde les chaussures de l'autre."
01:28
(LaughterRires)
22
63000
3000
(Rires)
01:31
But I want to tell you something usefulutile -- and here it is, so concentrateconcentrer now.
23
66000
5000
Mais je veux vous parler de quelque chose d'utile -- concentrez-vous.
01:36
This eveningsoir, there's a receptionaccueil in the University'sUniversité MuseumMusée of NaturalNaturel HistoryHistoire.
24
71000
3000
Ce soir, il y a une réception au musée d'histoire naturelle de l'université.
01:39
And it's a wonderfulformidable settingréglage, as I hopeespérer you'lltu vas find,
25
74000
2000
Le cadre est magnifique, j'espère que vous en conviendrez,
01:41
and a great iconicône to the bestmeilleur of the VictorianVictorien traditiontradition.
26
76000
5000
et il est très représentatif du meilleur de la tradition victorienne.
01:46
It's very unlikelyimprobable -- in this specialspécial settingréglage, and this collectioncollection of people --
27
81000
5000
Dans ce décor magnifique, avec tous ces gens réunis -- c'est peu probable
01:51
but you mightpourrait just find yourselftoi même talkingparlant to someoneQuelqu'un you'dtu aurais ratherplutôt wishsouhait that you weren'tn'étaient pas.
28
86000
3000
mais vous pourriez vous vous retrouver dans une conversation et vouloir en sortir.
01:54
So here'svoici what you do.
29
89000
2000
Dans ce cas voici ce que vous faites.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statisticianstatisticien."
30
91000
4000
Quand on vous demande, "Que faites-vous dans la vie ?" -- vous dites, "Je suis statisticien."
02:00
(LaughterRires)
31
95000
1000
(Rires)
02:01
Well, exceptsauf they'veils ont been pre-warnedpré-averti now, and they'llils vont know you're makingfabrication it up.
32
96000
4000
Sauf que maintenant ils sont prévenus, et qu'ils sauront que vous mentez.
02:05
And then one of two things will happense produire.
33
100000
2000
Alors il peut se passer deux choses.
02:07
They'llIls vont eithernon plus discoverdécouvrir theirleur long-lostperdu depuis longtemps cousincousin in the other cornercoin of the roomchambre
34
102000
2000
Soit ils vont se trouver un lointain cousin à l'autre bout de la salle
02:09
and runcourir over and talk to them.
35
104000
2000
et courir pour aller lui parler.
02:11
Or they'llils vont suddenlysoudainement becomedevenir parcheddesséché and/or hungryaffamé -- and oftensouvent bothtous les deux --
36
106000
3000
Soit ils vont soudain avoir très soif ou faim -- et souvent les deux --
02:14
and sprintsprint off for a drinkboisson and some foodaliments.
37
109000
2000
et filer se servir à boire à ou manger.
02:16
And you'lltu vas be left in peacepaix to talk to the personla personne you really want to talk to.
38
111000
4000
Et vous pourrez tranquillement parler avec qui vous voulez.
02:20
It's one of the challengesdéfis in our professionmétier to try and explainExplique what we do.
39
115000
3000
C'est un des défis de notre profession d'essayer d'expliquer ce que nous faisons.
02:23
We're not topHaut on people'sles gens listslistes for dinnerdîner partyfête guestsinvités and conversationsconversations and so on.
40
118000
5000
Nous ne sommes pas les meilleurs convives dans les dîners en ville et les conversations mondaines...
02:28
And it's something I've never really founda trouvé a good way of doing.
41
123000
2000
Et je ne suis pas vraiment doué pour cela.
02:30
But my wifefemme -- who was then my girlfriendpetite amie --
42
125000
3000
Mais ma femme -- ma petite amie alors --
02:33
managedgéré it much better than I've ever been ablecapable to.
43
128000
3000
le faisait beaucoup mieux que moi.
02:36
ManyDe nombreux yearsannées agodepuis, when we first startedcommencé going out, she was workingtravail for the BBCBBC in BritainLa Grande-Bretagne,
44
131000
3000
Il y a longtemps, quand nous nous sommes rencontrés, elle travaillait pour la BBC en Grande Bretagne,
02:39
and I was, at that stageétape, workingtravail in AmericaL’Amérique.
45
134000
2000
et je travaillais, à ce moment-là, en Amérique.
02:41
I was comingvenir back to visitvisite her.
46
136000
2000
J'étais de retour pour la voir.
02:43
She told this to one of her colleaguescollègues, who said, "Well, what does your boyfriendcopain do?"
47
138000
6000
Elle l'a dit à une de ses collèges, qui a demandé "Et que fait-il dans la vie ?"
02:49
SarahSarah thought quiteassez harddifficile about the things I'd explainedexpliqué --
48
144000
2000
Sarah s'est mise à réfléchir à ce que je lui avais raconté --
02:51
and she concentratedconcentré, in those daysjournées, on listeningécoute.
49
146000
4000
et elle faisait l'effort d'écouter, à cette époque.
02:55
(LaughterRires)
50
150000
2000
(Rires)
02:58
Don't tell her I said that.
51
153000
2000
Ne lui dites pas que j'ai dit ça.
03:00
And she was thinkingen pensant about the work I did developingdéveloppement mathematicalmathématique modelsdes modèles
52
155000
4000
Et elle pensait à mon travail sur la conception de modèles mathématiques
03:04
for understandingcompréhension evolutionévolution and modernmoderne geneticsla génétique.
53
159000
3000
pour comprendre l'évolution et la génétique moderne.
03:07
So when her colleaguecollègue said, "What does he do?"
54
162000
3000
Alors quand son collègue lui a dit "Que fait-il?"
03:10
She pausedmis en pause and said, "He modelsdes modèles things."
55
165000
4000
Elle a hésité et a dit, "Il fait du design"
03:14
(LaughterRires)
56
169000
1000
(Rires)
03:15
Well, her colleaguecollègue suddenlysoudainement got much more interestedintéressé than I had any right to expectattendre
57
170000
4000
Alors sa collègue s'est sentie vivement intéressée, étrangement,
03:19
and wentest allé on and said, "What does he modelmaquette?"
58
174000
3000
et elle a dit, "Et que fait-il comme design ?"
03:22
Well, SarahSarah thought a little bitbit more about my work and said, "GenesGènes."
59
177000
3000
Alors Sarah a réfléchi un peu plus et a dit, "des jeans" (ndt gènes)
03:25
(LaughterRires)
60
180000
4000
(Rires)
03:29
"He modelsdes modèles genesgènes."
61
184000
2000
"Il design des jeans." (des gènes)
03:31
That is my first love, and that's what I'll tell you a little bitbit about.
62
186000
4000
C'est mon premier amour, je n'en dirai pas plus.
03:35
What I want to do more generallygénéralement is to get you thinkingen pensant about
63
190000
4000
Plus généralement je voudrais que vous pensiez
03:39
the placeendroit of uncertaintyincertitude and randomnessaléatoire and chancechance in our worldmonde,
64
194000
3000
au rôle de l'incertain, de l'aléatoire et du hasard dans notre monde,
03:42
and how we reactréagir to that, and how well we do or don't think about it.
65
197000
5000
comment nous y réagissons, et comment nous voyons les choses.
03:47
So you've had a prettyjoli easyfacile time up tilljusqu'à now --
66
202000
2000
Bon. Ca a été plutôt facile pour vous jusqu'ici --
03:49
a fewpeu laughsdes rires, and all that kindgentil of thing -- in the talkspourparlers to daterendez-vous amoureux.
67
204000
2000
vous avez ri, etc -- dans les conférences jusqu'à celle-ci.
03:51
You've got to think, and I'm going to askdemander you some questionsdes questions.
68
206000
3000
Vous allez devoir réfléchir, et je vais vous poser des questions.
03:54
So here'svoici the scenescène for the first questionquestion I'm going to askdemander you.
69
209000
2000
Pour ma première question, imaginez la situation suivante.
03:56
Can you imagineimaginer tossinglancer a coinpièce de monnaie successivelysuccessivement?
70
211000
3000
Si vous lancez une pièce plusieurs fois d'affilée,
03:59
And for some reasonraison -- whichlequel shalldevra remainrester ratherplutôt vaguevague --
71
214000
3000
Pour une raison donnée -- que je n'expliquerai pas pour le moment --
04:02
we're interestedintéressé in a particularparticulier patternmodèle.
72
217000
2000
nous nous intéressons à un séquence particulière.
04:04
Here'sVoici one -- a headtête, followedsuivi by a tailqueue, followedsuivi by a tailqueue.
73
219000
3000
En voici une -- face, suivi de pile, suivi de pile.
04:07
So supposesupposer we tosslancer a coinpièce de monnaie repeatedlyà plusieurs reprises.
74
222000
3000
Supposez donc que nous lancions une pièce plusieurs fois de suite.
04:10
Then the patternmodèle, head-tail-tailtête-queue-queue, that we'venous avons suddenlysoudainement becomedevenir fixatedobsédé with happensarrive here.
75
225000
5000
La séquence, face-pile-pile, qui nous tient à coeur, se produit.
04:15
And you can countcompter: one, two, threeTrois, fourquatre, fivecinq, sixsix, sevenSept, eighthuit, nineneuf, 10 --
76
230000
4000
Si l'on compte : un, deux, trois, quatre, cinq, six, sept, huit, neuf, dix --
04:19
it happensarrive after the 10thth tosslancer.
77
234000
2000
elle se produit après le 10e lancer.
04:21
So you mightpourrait think there are more interestingintéressant things to do, but humorhumour me for the momentmoment.
78
236000
3000
Vous pouvez penser qu'il y a des choses plus intéressantes à faire, mais laissez moi poursuivre.
04:24
ImagineImaginez this halfmoitié of the audiencepublic eachchaque get out coinspièces de monnaie, and they tosslancer them
79
239000
4000
Imaginez que cette moitié d'entre vous a des pièces, et les lance
04:28
untiljusqu'à they first see the patternmodèle head-tail-tailtête-queue-queue.
80
243000
3000
jusqu'à voir la séquence face-pile-pile.
04:31
The first time they do it, maybe it happensarrive after the 10thth tosslancer, as here.
81
246000
2000
La première fois, ça se passera peut-être après le 10e lancer, comme ici.
04:33
The secondseconde time, maybe it's after the fourthQuatrième tosslancer.
82
248000
2000
La seconde fois, ce sera peut-être après le 4e lancer.
04:35
The nextprochain time, after the 15thth tosslancer.
83
250000
2000
La fois suivante, après le 15e.
04:37
So you do that lots and lots of timesfois, and you averagemoyenne those numbersNombres.
84
252000
3000
Vous relancez de nombreuses fois, et vous calculez la moyenne de ces chiffres.
04:40
That's what I want this sidecôté to think about.
85
255000
3000
Je veux que ce côté de la salle y réfléchisse.
04:43
The other halfmoitié of the audiencepublic doesn't like head-tail-tailtête-queue-queue --
86
258000
2000
L'autre moitié de l'assistance, elle, n'aime pas face-pile-pile --
04:45
they think, for deepProfond culturalculturel reasonsles raisons, that's boringennuyeuse --
87
260000
3000
ils trouvent ça ennuyeux, pour d'obscures raisons culturelles --
04:48
and they're much more interestedintéressé in a differentdifférent patternmodèle -- head-tail-headtête-tête-tête.
88
263000
3000
et ils sont plus intéressés par une séquence différente -- face-pile-face.
04:51
So, on this sidecôté, you get out your coinspièces de monnaie, and you tosslancer and tosslancer and tosslancer.
89
266000
3000
Donc, de ce côté; vous prenez vos pièces, et vous les lancez et relancez.
04:54
And you countcompter the numbernombre of timesfois untiljusqu'à the patternmodèle head-tail-headtête-tête-tête appearsapparaît
90
269000
3000
Et vous comptez le nombre de lancers jusqu'à la séquence face-pile-face
04:57
and you averagemoyenne them. OK?
91
272000
3000
et vous faites la moyenne. OK ?
05:00
So on this sidecôté, you've got a numbernombre --
92
275000
2000
De ce côté-ci, vous obtenez un nombre --
05:02
you've doneterminé it lots of timesfois, so you get it accuratelyavec précision --
93
277000
2000
Vous l'avez beaucoup fait, donc vous obtenez un nombre exact --
05:04
whichlequel is the averagemoyenne numbernombre of tosseslancer untiljusqu'à head-tail-tailtête-queue-queue.
94
279000
3000
le nombre moyen de lancers pour obtenir face-pile-pile.
05:07
On this sidecôté, you've got a numbernombre -- the averagemoyenne numbernombre of tosseslancer untiljusqu'à head-tail-headtête-tête-tête.
95
282000
4000
De ce côté-là -- le nombre moyen de lancers jusqu'à face-pile-face.
05:11
So here'svoici a deepProfond mathematicalmathématique factfait --
96
286000
2000
C'est une règle mathématique fondamentale --
05:13
if you've got two numbersNombres, one of threeTrois things mustdoit be truevrai.
97
288000
3000
si vous avez deux nombres, une des 3 choses suivantes est vraie.
05:16
EitherOu l’autre they're the sameMême, or this one'sson biggerplus gros than this one,
98
291000
3000
Ou bien ils sont égaux, ou bien l'un est plus grand que l'autre,
05:19
or this one'sson biggerplus gros than that one.
99
294000
1000
ou l'autre plus grand que l'un.
05:20
So what's going on here?
100
295000
3000
Que se passe-t-il dans notre cas ?
05:23
So you've all got to think about this, and you've all got to votevote --
101
298000
2000
Vous devez tous y penser, et vous allez devoir voter --
05:25
and we're not movingen mouvement on.
102
300000
1000
nous en restons là pour le moment.
05:26
And I don't want to endfin up in the two-minutedeux minutes silencesilence
103
301000
2000
Je ne veux pas vous laisser trop de temps
05:28
to give you more time to think about it, untiljusqu'à everyone'stout le monde expressedexprimé a viewvue. OK.
104
303000
4000
pour y réfléchir, jusqu'à ce que tout le monde ait voté. OK.
05:32
So what you want to do is comparecomparer the averagemoyenne numbernombre of tosseslancer untiljusqu'à we first see
105
307000
4000
Vous comparez le nombre de lancers moyen jusqu'à la première apparition
05:36
head-tail-headtête-tête-tête with the averagemoyenne numbernombre of tosseslancer untiljusqu'à we first see head-tail-tailtête-queue-queue.
106
311000
4000
de face-pile-face avec le nombre moyen de lancers jusqu'à face-pile-pile.
05:41
Who thinkspense that A is truevrai --
107
316000
2000
Qui pense que A est vrai --
05:43
that, on averagemoyenne, it'llça va take longerplus long to see head-tail-headtête-tête-tête than head-tail-tailtête-queue-queue?
108
318000
4000
qu'en moyenne, ce sera plus long pour face-pile-face que pour face-pile-pile ?
05:47
Who thinkspense that B is truevrai -- that on averagemoyenne, they're the sameMême?
109
322000
3000
Qui pense que B est vrai -- qu'en moyenne, ils sont égaux ?
05:51
Who thinkspense that C is truevrai -- that, on averagemoyenne, it'llça va take lessMoins time
110
326000
2000
Qui pense que C est vrai -- qu'en moyenne, il faudra moins de temps
05:53
to see head-tail-headtête-tête-tête than head-tail-tailtête-queue-queue?
111
328000
3000
pour face-pile-face que pour face-pile-pile ?
05:57
OK, who hasn'tn'a pas votedvoté yetencore? Because that's really naughtyvilain -- I said you had to.
112
332000
3000
OK, qui n'a pas voté ? Parce que c'est mal -- on a dit que vous deviez le faire.
06:00
(LaughterRires)
113
335000
1000
(Rires)
06:02
OK. So mostles plus people think B is truevrai.
114
337000
3000
OK. Donc la majorité pense que B est vrai.
06:05
And you mightpourrait be relievedsoulagé to know even ratherplutôt distinguisheddistingué mathematiciansmathématiciens think that.
115
340000
3000
Et vous serez rassurés de savoir que même de distingués mathématiciens le pensent aussi.
06:08
It's not. A is truevrai here.
116
343000
4000
C'est faux. C'est A qui est vrai.
06:12
It takes longerplus long, on averagemoyenne.
117
347000
2000
C'est plus long, en moyenne.
06:14
In factfait, the averagemoyenne numbernombre of tosseslancer tilljusqu'à head-tail-headtête-tête-tête is 10
118
349000
2000
En fait, la moyenne du nombre de lancers nécessaires pour face-pile-face est 10
06:16
and the averagemoyenne numbernombre of tosseslancer untiljusqu'à head-tail-tailtête-queue-queue is eighthuit.
119
351000
5000
et la moyenne pour face-pile-pile est 8.
06:21
How could that be?
120
356000
2000
Comment est-ce possible ?
06:24
Anything differentdifférent about the two patternsmodèles?
121
359000
3000
Les deux séquences sont-elles différentes ?
06:30
There is. Head-tail-headQueue-chef-chef overlapschevauchement itselfse.
122
365000
5000
Elles le sont. Face-pile-face se "mord la queue".
06:35
If you wentest allé head-tail-head-tail-headtête-queue-tête-queue-tête, you can cunninglyastucieusement get two occurrencesoccurrences
123
370000
4000
Si vous avez face-pile-face-pile-face, vous obtenez d'un coup deux occurrences
06:39
of the patternmodèle in only fivecinq tosseslancer.
124
374000
3000
de la séquence en seulement cinq lancers.
06:42
You can't do that with head-tail-tailtête-queue-queue.
125
377000
2000
Ce n'est pas possible avec face-pile-pile.
06:44
That turnsse tourne out to be importantimportant.
126
379000
2000
Ceci s'avère important.
06:46
There are two waysfaçons of thinkingen pensant about this.
127
381000
2000
Il y a deux manières de voir.
06:48
I'll give you one of them.
128
383000
2000
Je vais vous en donner une.
06:50
So imagineimaginer -- let's supposesupposer we're doing it.
129
385000
2000
Supposons que nous sommes en train de lancer.
06:52
On this sidecôté -- rememberrappelles toi, you're excitedexcité about head-tail-tailtête-queue-queue;
130
387000
2000
De ce côté -- rappelez-vous, vous êtes enthousiastes pour face-pile-pile,
06:54
you're excitedexcité about head-tail-headtête-tête-tête.
131
389000
2000
et vous, pour face-pile-face.
06:56
We startdébut tossinglancer a coinpièce de monnaie, and we get a headtête --
132
391000
3000
On lancer, et on obtient face --
06:59
and you startdébut sittingséance on the edgebord of your seatsiège
133
394000
1000
vous commencez à vous tortiller sur votre fauteuil
07:00
because something great and wonderfulformidable, or awesomeimpressionnant, mightpourrait be about to happense produire.
134
395000
5000
car quelque chose de grand et de merveilleux, est sur le point de se produire.
07:05
The nextprochain tosslancer is a tailqueue -- you get really excitedexcité.
135
400000
2000
Le second lancer donne un pile -- et vous vous emballez.
07:07
The champagne'schampagne on icela glace just nextprochain to you; you've got the glassesdes lunettes chilledglacé to celebratecélébrer.
136
402000
4000
Le champagne glacé est juste à côté de vous, vous avez refroidi les flûtes et vous vous préparez fêter ça.
07:11
You're waitingattendre with batedenflammé breathsouffle for the finalfinal tosslancer.
137
406000
2000
Vous attendez, haletant, le lancer final.
07:13
And if it comesvient down a headtête, that's great.
138
408000
2000
Et s'il sort un face, c'est super.
07:15
You're doneterminé, and you celebratecélébrer.
139
410000
2000
Vous êtes contents, et vous fêtez ça.
07:17
If it's a tailqueue -- well, ratherplutôt disappointedlydéçu, you put the glassesdes lunettes away
140
412000
2000
Si c'est un pile -- bon, un peu déçus, vous rangez les flûtes
07:19
and put the champagneChampagne back.
141
414000
2000
et le champagne.
07:21
And you keep tossinglancer, to wait for the nextprochain headtête, to get excitedexcité.
142
416000
3000
Et vous continuez vos lancers, vous attendez la sortie du prochain face pour vous emballer de nouveau.
07:25
On this sidecôté, there's a differentdifférent experienceexpérience.
143
420000
2000
De ce côté-là, vous vivez une expérience différente.
07:27
It's the sameMême for the first two partsles pièces of the sequenceséquence.
144
422000
3000
C'est la même chose pour les deux premières parties de la séquence.
07:30
You're a little bitbit excitedexcité with the first headtête --
145
425000
2000
Vous êtes un peu excités par le premier face --
07:32
you get ratherplutôt more excitedexcité with the nextprochain tailqueue.
146
427000
2000
vous êtes encore plus excités avec le pile suivant.
07:34
Then you tosslancer the coinpièce de monnaie.
147
429000
2000
Et vous relancez.
07:36
If it's a tailqueue, you crackfissure openouvrir the champagneChampagne.
148
431000
3000
Si c'est un pile, vous sabrez le champagne.
07:39
If it's a headtête you're disappointeddésappointé,
149
434000
2000
Si c'est un face vous êtes déçus,
07:41
but you're still a thirdtroisième of the way to your patternmodèle again.
150
436000
3000
mais vous êtes de nouveau au tiers de votre motif.
07:44
And that's an informalinformel way of presentingen présentant it -- that's why there's a differencedifférence.
151
439000
4000
C'est une manière informelle de présenter les choses -- mais c'est pour cela qu'il y a une différence.
07:48
AnotherUn autre way of thinkingen pensant about it --
152
443000
2000
Une autre manière de voir --
07:50
if we tossedjeté a coinpièce de monnaie eighthuit millionmillion timesfois,
153
445000
2000
si vous avez lancé huit millions de fois,
07:52
then we'dmer expectattendre a millionmillion head-tail-headstête-queue-têtes
154
447000
2000
alors nous devrions avoir un million de face-pile-face,
07:54
and a millionmillion head-tail-tailsqueue-queue-queue -- but the head-tail-headstête-queue-têtes could occurse produire in clumpsgrumeaux.
155
449000
7000
et un million de face-pile-pile -- mais face-pile-face pourrait apparaître en grappes.
08:01
So if you want to put a millionmillion things down amongstparmi eighthuit millionmillion positionspositions
156
456000
2000
Donc sur huit millions de positions, si vous voulez en placer un million
08:03
and you can have some of them overlappingchevauchement, the clumpsgrumeaux will be furtherplus loin apartune part.
157
458000
5000
et que certains d'entre eux se recouvrent, les paquets seront plus séparés.
08:08
It's anotherun autre way of gettingobtenir the intuitionintuition.
158
463000
2000
C'est une autre façon de rendre les choses intuitives.
08:10
What's the pointpoint I want to make?
159
465000
2000
Qu'est-ce que je veux dire par là ?
08:12
It's a very, very simplesimple exampleExemple, an easilyfacilement stateddéclaré questionquestion in probabilityprobabilité,
160
467000
4000
Il s'agit d'un exemple très, très simple, une question de probabilité facile,
08:16
whichlequel everychaque -- you're in good companycompagnie -- everybodyTout le monde getsobtient wrongfaux.
161
471000
3000
sur laquelle tout le monde se trompe -- et nous sommes en bonne compagnie.
08:19
This is my little diversiondérivation into my realréal passionla passion, whichlequel is geneticsla génétique.
162
474000
4000
Ceci est une petite digression pour en venir à ma véritable passion, la génétique.
08:23
There's a connectionconnexion betweenentre head-tail-headstête-queue-têtes and head-tail-tailsqueue-queue-queue in geneticsla génétique,
163
478000
3000
Il y a un lien entre face-pile-face et face-pile-pile en génétique,
08:26
and it's the followingSuivant.
164
481000
3000
et c'est le suivant.
08:29
When you tosslancer a coinpièce de monnaie, you get a sequenceséquence of headstêtes and tailsqueues.
165
484000
3000
Quand vous lancez une pièce, vous obtenez une séquence de faces et de piles.
08:32
When you look at DNAADN, there's a sequenceséquence of not two things -- headstêtes and tailsqueues --
166
487000
3000
Dans l'ADN il y a une séquence de non pas deux choses -- face et pile --
08:35
but fourquatre lettersdes lettres -- As, GsGS, CsCS and TsTS.
167
490000
3000
mais de quatre lettres -- A, G, C et T.
08:38
And there are little chemicalchimique scissorsles ciseaux, calledappelé restrictionrestriction enzymesenzymes
168
493000
3000
Il y a de petits ciseaux chimiques, appelés enzymes de restriction,
08:41
whichlequel cutCouper DNAADN whenevern'importe quand they see particularparticulier patternsmodèles.
169
496000
2000
qui coupent l'ADN à chaque fois qu'ils tombent sur une séquence particulière.
08:43
And they're an enormouslyénormément usefulutile tooloutil in modernmoderne molecularmoléculaire biologyla biologie.
170
498000
4000
C'est un outil extrêmement utile en biologie moléculaire moderne.
08:48
And insteadau lieu of askingdemandant the questionquestion, "How long untiljusqu'à I see a head-tail-headtête-tête-tête?" --
171
503000
3000
Au lieu de demander, "Au bout de combien de temps obtient-on un face-pile-face ?" --
08:51
you can askdemander, "How biggros will the chunksmorceaux be when I use a restrictionrestriction enzymeenzyme
172
506000
3000
vous pouvez demander, "De quelle taille sont les paquets si j'utilise une enzyme de restriction
08:54
whichlequel cutscoupes whenevern'importe quand it seesvoit G-A-A-GG-A-A-G, for exampleExemple?
173
509000
4000
qui coupe quand elle voit G-A-A-G, par exemple,
08:58
How long will those chunksmorceaux be?"
174
513000
2000
De quelle taille sont ces paquets ?"
09:00
That's a ratherplutôt trivialbanal connectionconnexion betweenentre probabilityprobabilité and geneticsla génétique.
175
515000
5000
C'est un lien des plus courants entre probabilité et génétique.
09:05
There's a much deeperPlus profond connectionconnexion, whichlequel I don't have time to go into
176
520000
3000
Il y a un lien plus profond encore, dont je n'ai pas eu le temps de parler
09:08
and that is that modernmoderne geneticsla génétique is a really excitingpassionnant arearégion of sciencescience.
177
523000
3000
et qui fait de la génétique moderne une science vraiment passionnante.
09:11
And we'llbien hearentendre some talkspourparlers laterplus tard in the conferenceconférence specificallyPlus précisément about that.
178
526000
4000
Nous entendrons d'autres conférences à ce sujet.
09:15
But it turnsse tourne out that unlockingdéverrouillage the secretssecrets in the informationinformation generatedgénéré by modernmoderne
179
530000
4000
Il s'avère que, pour comprendre les secrets que recèle les données générées par les technologies
09:19
experimentalexpérimental technologiesles technologies, a keyclé partpartie of that has to do with fairlyéquitablement sophisticatedsophistiqué --
180
534000
5000
expérimentales modernes, une des clés provient de techniques plutôt sophistiquées --
09:24
you'lltu vas be relievedsoulagé to know that I do something usefulutile in my day jobemploi,
181
539000
3000
rassurez-vous, je fais quelque chose d'utile dans mon travail,
09:27
ratherplutôt more sophisticatedsophistiqué than the head-tail-headtête-tête-tête storyrécit --
182
542000
2000
beaucoup plus sophistiquées que l'histoire de face-pile-face --
09:29
but quiteassez sophisticatedsophistiqué computerordinateur modelingsmodélisations and mathematicalmathématique modelingsmodélisations
183
544000
4000
la modélisation informatique et mathématique
09:33
and modernmoderne statisticalstatistique techniquestechniques.
184
548000
2000
et des techniques statistiques modernes.
09:35
And I will give you two little snippetsextraits -- two examplesexemples --
185
550000
3000
Je vais vous donner deux aperçus-- deux exemples --
09:38
of projectsprojets we're involvedimpliqué in in my groupgroupe in OxfordOxford,
186
553000
3000
de projets dont mon groupe à Oxford fait partie,
09:41
bothtous les deux of whichlequel I think are ratherplutôt excitingpassionnant.
187
556000
2000
qui sont tous les deux assez passionnants.
09:43
You know about the HumanHumaine GenomeGénome ProjectProjet.
188
558000
2000
Vous connaissez le projet Génome Humain.
09:45
That was a projectprojet whichlequel aimedvisé to readlis one copycopie of the humanHumain genomegénome.
189
560000
4000
Ce projet avait pour but de séquencer un génome humain complet.
09:51
The naturalNaturel thing to do after you've doneterminé that --
190
566000
2000
Ce qui vient naturellement après ça --
09:53
and that's what this projectprojet, the InternationalInternational HapMapHapMap ProjectProjet,
191
568000
2000
c'est le projet international HapMap,
09:55
whichlequel is a collaborationcollaboration betweenentre labslaboratoires in fivecinq or sixsix differentdifférent countriesdes pays.
192
570000
5000
qui est une collaboration de laboratoires de cinq ou six pays différents.
10:00
Think of the HumanHumaine GenomeGénome ProjectProjet as learningapprentissage what we'venous avons got in commoncommun,
193
575000
4000
Pensez au projet Génome Humain comme une manière d'apprendre ce que nous avons en commun
10:04
and the HapMapHapMap ProjectProjet is tryingen essayant to understandcomprendre
194
579000
2000
et au projet HapMap comme une façon de comprendre
10:06
where there are differencesdifférences betweenentre differentdifférent people.
195
581000
2000
les différences entre des gens différents.
10:08
Why do we carese soucier about that?
196
583000
2000
Pourquoi se préoccuper de cela ?
10:10
Well, there are lots of reasonsles raisons.
197
585000
2000
Et bien, il y a de nombreuses raisons.
10:12
The mostles plus pressingpressage one is that we want to understandcomprendre how some differencesdifférences
198
587000
4000
La plus pressante est de comprendre comment ces différences
10:16
make some people susceptiblesensible to one diseasemaladie -- type-type-2 diabetesDiabète, for exampleExemple --
199
591000
4000
prédisposent certaines personnes à une maladie donnée -- disons, un diabète de type 2 --
10:20
and other differencesdifférences make people more susceptiblesensible to heartcœur diseasemaladie,
200
595000
5000
et que d'autres différences prédisposent d'autres à des maladies du coeur,
10:25
or strokeaccident vasculaire cérébral, or autismautisme and so on.
201
600000
2000
ou à des accidents vasculaires cérébraux, ou à l'autisme etc.
10:27
That's one biggros projectprojet.
202
602000
2000
C'est un grand projet.
10:29
There's a secondseconde biggros projectprojet,
203
604000
2000
Il y a un second grand projet.
10:31
recentlyrécemment fundedfinancé by the WellcomeWellcome TrustFiducie in this countryPays,
204
606000
2000
récemment financé par le Wellcome Trust dans ce pays,
10:33
involvingimpliquant very largegrand studiesétudes --
205
608000
2000
qui implique de vastes études --
10:35
thousandsmilliers of individualspersonnes, with eachchaque of eighthuit differentdifférent diseasesmaladies,
206
610000
3000
des milliers d'individus, et huit maladies différentes,
10:38
commoncommun diseasesmaladies like type-type-1 and type-type-2 diabetesDiabète, and coronarycoronaire heartcœur diseasemaladie,
207
613000
4000
des maladies courantes comme les diabètes de type 1 et 2, l'infarctus du myocarde,
10:42
bipolarbipolaire diseasemaladie and so on -- to try and understandcomprendre the geneticsla génétique.
208
617000
4000
les maladies bipolaires etc -- pour essayer de comprendre leur génétique.
10:46
To try and understandcomprendre what it is about geneticgénétique differencesdifférences that causescauses the diseasesmaladies.
209
621000
3000
Essayer de comprendre ce qui, dans les différences génétiques cause ces maladies.
10:49
Why do we want to do that?
210
624000
2000
Pourquoi voulons-nous faire cela ?
10:51
Because we understandcomprendre very little about mostles plus humanHumain diseasesmaladies.
211
626000
3000
Parce que nous connaissons très peu la plupart des maladies humaines.
10:54
We don't know what causescauses them.
212
629000
2000
Nous ne connaissons pas leurs causes.
10:56
And if we can get in at the bottombas and understandcomprendre the geneticsla génétique,
213
631000
2000
Et si nous pouvons approfondir et comprendre leur génétique,
10:58
we'llbien have a windowfenêtre on the way the diseasemaladie workstravaux,
214
633000
3000
nous aurons une accès à leur manière de fonctionner.
11:01
and a wholeentier newNouveau way about thinkingen pensant about diseasemaladie therapiesthérapies
215
636000
2000
Une toute nouvelle façon de concevoir les thérapies
11:03
and preventativepréventif treatmenttraitement and so on.
216
638000
3000
et les traitements préventifs etc.
11:06
So that's, as I said, the little diversiondérivation on my mainprincipale love.
217
641000
3000
C'était, comme je l'ai dit, une petite digression à ma passion principale.
11:09
Back to some of the more mundanebanal issuesproblèmes of thinkingen pensant about uncertaintyincertitude.
218
644000
5000
Revenons à des problèmes plus prosaïques sur la manière de penser l'incertain.
11:14
Here'sVoici anotherun autre quizquiz for you --
219
649000
2000
Voici un autre quizz --
11:16
now supposesupposer we'venous avons got a testtester for a diseasemaladie
220
651000
2000
supposez que nous ayons un test pour une maladie
11:18
whichlequel isn't infallibleinfaillible, but it's prettyjoli good.
221
653000
2000
qui n'est pas infaillible, mais plutôt bon.
11:20
It getsobtient it right 99 percentpour cent of the time.
222
655000
3000
Il est juste 99 pour cent du temps.
11:23
And I take one of you, or I take someoneQuelqu'un off the streetrue,
223
658000
3000
Je choisis l'un de vous, ou quelqu'un dans la rue,
11:26
and I testtester them for the diseasemaladie in questionquestion.
224
661000
2000
et je fais le test pour cette maladie.
11:28
Let's supposesupposer there's a testtester for HIVVIH -- the virusvirus that causescauses AIDSSIDA --
225
663000
4000
Supposons qu'il existe un test pour le VIH -- le virus responsable du SIDA --
11:32
and the testtester saysdit the personla personne has the diseasemaladie.
226
667000
3000
et que le test soit positif pour cette personne.
11:35
What's the chancechance that they do?
227
670000
3000
Quel est le pourcentage de chance que la personne soit effectivement malade ?
11:38
The testtester getsobtient it right 99 percentpour cent of the time.
228
673000
2000
Le test est bon 99 pour cent des fois.
11:40
So a naturalNaturel answerrépondre is 99 percentpour cent.
229
675000
4000
Donc la réponse naturelle est 99 pour cent.
11:44
Who likesaime that answerrépondre?
230
679000
2000
Qui aime cette réponse ?
11:46
Come on -- everyone'stout le monde got to get involvedimpliqué.
231
681000
1000
Allez -- tout le monde est concerné.
11:47
Don't think you don't trustconfiance me anymoreplus.
232
682000
2000
Oubliez que vous ne me faites plus confiance.
11:49
(LaughterRires)
233
684000
1000
(Rires)
11:50
Well, you're right to be a bitbit skepticalsceptique, because that's not the answerrépondre.
234
685000
3000
Bien, vous avez raison d'être un peu sceptiques, parce que ce n'est pas la bonne réponse.
11:53
That's what you mightpourrait think.
235
688000
2000
C'est ce que vous pourriez croire.
11:55
It's not the answerrépondre, and it's not because it's only partpartie of the storyrécit.
236
690000
3000
Ce n'est pas la réponse, parce qu'il manque des éléments.
11:58
It actuallyréellement dependsdépend on how commoncommun or how rarerare the diseasemaladie is.
237
693000
3000
La réponse dépend en fait de la rareté de la maladie.
12:01
So let me try and illustrateillustrer that.
238
696000
2000
Je vais vous donner un exemple.
12:03
Here'sVoici a little caricaturecaricature of a millionmillion individualspersonnes.
239
698000
4000
Voici une représentation d'un million d'individus.
12:07
So let's think about a diseasemaladie that affectsaffecte --
240
702000
3000
Prenons une maladie qui affecte --
12:10
it's prettyjoli rarerare, it affectsaffecte one personla personne in 10,000.
241
705000
2000
c'est une maladie rare, elle affecte une personne sur 10 000.
12:12
AmongstParmi les these millionmillion individualspersonnes, mostles plus of them are healthyen bonne santé
242
707000
3000
Parmi ce million d'individus, la plupart sont en bonne santé
12:15
and some of them will have the diseasemaladie.
243
710000
2000
et certains ont la maladie.
12:17
And in factfait, if this is the prevalenceprévalence of the diseasemaladie,
244
712000
3000
Et, si ceci est la prévalence de la maladie,
12:20
about 100 will have the diseasemaladie and the restdu repos won'thabitude.
245
715000
3000
100 l'auront et le reste non.
12:23
So now supposesupposer we testtester them all.
246
718000
2000
Maintenant, supposez qu'on teste tout le monde.
12:25
What happensarrive?
247
720000
2000
Que se passe-t-il ?
12:27
Well, amongstparmi the 100 who do have the diseasemaladie,
248
722000
2000
Et bien, sur les 100 qui ont la maladie,
12:29
the testtester will get it right 99 percentpour cent of the time, and 99 will testtester positivepositif.
249
724000
5000
le test aura la bonne réponse 99 fois sur cent, et 99 seront testés positifs.
12:34
AmongstParmi les all these other people who don't have the diseasemaladie,
250
729000
2000
Sur tous les autres, qui sont en bonne santé,
12:36
the testtester will get it right 99 percentpour cent of the time.
251
731000
3000
le test répondra juste à 99 pour cent.
12:39
It'llÇa va only get it wrongfaux one percentpour cent of the time.
252
734000
2000
Il sera faux seulement une fois sur cent.
12:41
But there are so manybeaucoup of them that there'llil y aura be an enormousénorme numbernombre of falsefaux positivespositifs.
253
736000
4000
Mais il y a tellement de gens qu'il y aura un grand nombre de faux positifs.
12:45
Put that anotherun autre way --
254
740000
2000
Dit autrement --
12:47
of all of them who testtester positivepositif -- so here they are, the individualspersonnes involvedimpliqué --
255
742000
5000
sur tous ceux qui sont testés positifs -- voici les individus concernés --
12:52
lessMoins than one in 100 actuallyréellement have the diseasemaladie.
256
747000
5000
moins d'un sur 100 a vraiment la maladie.
12:57
So even thoughbien que we think the testtester is accurateprécis, the importantimportant partpartie of the storyrécit is
257
752000
4000
Donc même si nous considérons que le test est rigoureux, un élément important est
13:01
there's anotherun autre bitbit of informationinformation we need.
258
756000
3000
qu'une partie de l'information est manquante.
13:04
Here'sVoici the keyclé intuitionintuition.
259
759000
2000
Voici l'intuition essentielle.
13:07
What we have to do, onceune fois que we know the testtester is positivepositif,
260
762000
3000
Ce que nous devons faire, lorsque le test est positif
13:10
is to weighpeser up the plausibilityplausibilité, or the likelihoodprobabilité, of two competingen compétition explanationsexplications.
261
765000
6000
est de peser la plausibilité, ou la vraisemblance, de deux explications opposées.
13:16
EachChaque of those explanationsexplications has a likelyprobable bitbit and an unlikelyimprobable bitbit.
262
771000
3000
Chacune de ces explications est en partie vraisemblable et en partie peu vraisemblable.
13:19
One explanationexplication is that the personla personne doesn't have the diseasemaladie --
263
774000
3000
Une explication est que la personne n'a pas la maladie --
13:22
that's overwhelminglymassivement likelyprobable, if you pickchoisir someoneQuelqu'un at randomau hasard --
264
777000
3000
ce qui est extrêmement probable, si vous prenez quelqu'un au hasard --
13:25
but the testtester getsobtient it wrongfaux, whichlequel is unlikelyimprobable.
265
780000
3000
et que le test est faux, ce qui est peu probable.
13:29
The other explanationexplication is that the personla personne does have the diseasemaladie -- that's unlikelyimprobable --
266
784000
3000
L'autre explication est que la personne a la maladie -- c'est peu probable --
13:32
but the testtester getsobtient it right, whichlequel is likelyprobable.
267
787000
3000
et que le test est juste, ce qui est probable.
13:35
And the numbernombre we endfin up with --
268
790000
2000
Et le nombre que nous obtenons --
13:37
that numbernombre whichlequel is a little bitbit lessMoins than one in 100 --
269
792000
3000
ce nombre est légèrement inférieur à 100 --
13:40
is to do with how likelyprobable one of those explanationsexplications is relativerelatif to the other.
270
795000
6000
dépend de la probabilité qu'une de ces explications est liée à l'autre.
13:46
EachChaque of them takenpris togetherensemble is unlikelyimprobable.
271
801000
2000
Chacune des deux prises ensemble est improbable.
13:49
Here'sVoici a more topicaltopique exampleExemple of exactlyexactement the sameMême thing.
272
804000
3000
Voici un autre exemple pris dans l'actualité.
13:52
Those of you in BritainLa Grande-Bretagne will know about what's becomedevenir ratherplutôt a celebratedcélèbre caseCas
273
807000
4000
Les britanniques ont entendu parler de ce cas devenu célèbre
13:56
of a womanfemme calledappelé SallySally ClarkClark, who had two babiesbébés who dieddécédés suddenlysoudainement.
274
811000
5000
d'une femme nommée Sally Clark, dont les deux bébés sont morts soudainement.
14:01
And initiallyinitialement, it was thought that they dieddécédés of what's knownconnu informallyofficieusement as "cotlit bébé deathdécès,"
275
816000
4000
Initialement, on a pensé qu'ils étaient morts de ce que l'on appelle la mort subite du nourrisson
14:05
and more formallyofficiellement as "SuddenSoudaine InfantEnfant en bas âge DeathMort SyndromeSyndrome de."
276
820000
3000
(familièrement en anglais : "mort du berceau")
14:08
For variousdivers reasonsles raisons, she was laterplus tard chargedaccusé with murdermeurtre.
277
823000
2000
Pour différentes raisons, on l'a plus tard accusée de meurtre.
14:10
And at the trialprocès, her trialprocès, a very distinguisheddistingué pediatricianpédiatre gavea donné evidencepreuve
278
825000
4000
Et au procès, son procès, un pédiatre distingué a déclaré dans son témoignage
14:14
that the chancechance of two cotlit bébé deathsdes morts, innocentinnocent deathsdes morts, in a familyfamille like hersla sienne --
279
829000
5000
que le pourcentage de chance d'avoir deux nourrissons morts du même syndrome, dans une famille comme la sienne --
14:19
whichlequel was professionalprofessionnel and non-smokingnon-fumeur -- was one in 73 millionmillion.
280
834000
6000
en activité et non fumeur -- était de 1 sur 73 millions.
14:26
To cutCouper a long storyrécit shortcourt, she was convictedcondamné at the time.
281
841000
3000
Pour faire court, elle a été condamnée à l'époque.
14:29
LaterPar la suite, and fairlyéquitablement recentlyrécemment, acquittedacquitté on appealcharme -- in factfait, on the secondseconde appealcharme.
282
844000
5000
Plus tard, assez récemment, elle a été acquittée en appel -- en fait, au second appel.
14:34
And just to setensemble it in contextle contexte, you can imagineimaginer how awfulterrible it is for someoneQuelqu'un
283
849000
4000
Pour replacer les choses dans leur contexte, imaginez l'épreuve pour quelqu'un
14:38
to have lostperdu one childenfant, and then two, if they're innocentinnocent,
284
853000
3000
de perdre un enfant, et un deuxième, et tout en étant innocent,
14:41
to be convictedcondamné of murderingassassiner them.
285
856000
2000
d'être reconnu coupable de meurtre.
14:43
To be put throughpar the stressstress of the trialprocès, convictedcondamné of murderingassassiner them --
286
858000
2000
De subir le stress du procès, d'être condamné pour meurtre --
14:45
and to spenddépenser time in a women'saux femmes prisonprison, where all the other prisonersles prisonniers
287
860000
3000
et d'être détenue dans une prison pour femmes, où toutes les autres prisonnières
14:48
think you killedtué your childrenles enfants -- is a really awfulterrible thing to happense produire to someoneQuelqu'un.
288
863000
5000
pensent que vous avez tué vos enfants -- c'est vraiment horrible.
14:53
And it happenedarrivé in largegrand partpartie here because the expertexpert got the statisticsstatistiques
289
868000
5000
Et c'est arrivé en grande partie parce que l'expert s'est totalement fourvoyé
14:58
horriblyhorriblement wrongfaux, in two differentdifférent waysfaçons.
290
873000
3000
sur ses statistiques, et ce sur deux points.
15:01
So where did he get the one in 73 millionmillion numbernombre?
291
876000
4000
Alors d'où a-t-il sorti son chiffre de 73 millions ?
15:05
He lookedregardé at some researchrecherche, whichlequel said the chancechance of one cotlit bébé deathdécès in a familyfamille
292
880000
3000
Il a lu quelques publications de recherche, qui disaient que la chance d'une mort subite du nourrisson dans une famille
15:08
like SallySally Clark'sClark is about one in 8,500.
293
883000
5000
comme celle de Sally Clark est à peu près d'une sur huit mille cinq cent.
15:13
So he said, "I'll assumeassumer that if you have one cotlit bébé deathdécès in a familyfamille,
294
888000
4000
Et il a dit, "Je suppose que si on a un nourrisson mort du syndrome dans une famille,
15:17
the chancechance of a secondseconde childenfant dyingen train de mourir from cotlit bébé deathdécès aren'tne sont pas changedmodifié."
295
892000
4000
le pourcentage de chance d'avoir une second enfant mort sont inchangées."
15:21
So that's what statisticiansstatisticiens would call an assumptionsupposition of independenceindépendance.
296
896000
3000
C'est ce que les statisticiens appelleraient une hypothèse d'indépendance.
15:24
It's like sayingen disant, "If you tosslancer a coinpièce de monnaie and get a headtête the first time,
297
899000
2000
C'est la même chose de dire, "Si vous lancez une pièce et obtenez face la première fois,
15:26
that won'thabitude affectaffecter the chancechance of gettingobtenir a headtête the secondseconde time."
298
901000
3000
cela n'aura pas d'incidence sur vos chances d'avoir face la seconde fois."
15:29
So if you tosslancer a coinpièce de monnaie twicedeux fois, the chancechance of gettingobtenir a headtête twicedeux fois are a halfmoitié --
299
904000
5000
Alors si vous lancez une pièce deux fois de suite, la probabilité d'obtenir deux faces est un demi --
15:34
that's the chancechance the first time -- timesfois a halfmoitié -- the chancechance a secondseconde time.
300
909000
3000
soit la probabilité du premier lancer -- multiplié par un demi -- la probabilité du second lancer.
15:37
So he said, "Here,
301
912000
2000
Alors il a dit, "Supposons --
15:39
I'll assumeassumer that these eventsévénements are independentindépendant.
302
914000
4000
Je suppose que ces évènements sont indépendants.
15:43
When you multiplymultiplier 8,500 togetherensemble twicedeux fois,
303
918000
2000
Quand vous multipliez huit mille cinq cents par huit mille cinq cents,
15:45
you get about 73 millionmillion."
304
920000
2000
vous obtenez à peu près 73 millions."
15:47
And noneaucun of this was stateddéclaré to the courttribunal as an assumptionsupposition
305
922000
2000
Et aucune de ces hypothèses n'a été exposée au tribunal
15:49
or presentedprésenté to the juryjury that way.
306
924000
2000
ou présentée au jury de cette façon.
15:52
UnfortunatelyMalheureusement here -- and, really, regrettablymalheureusement --
307
927000
3000
Malheureusement -- et vraiment, de manière regrettable --
15:55
first of all, in a situationsituation like this you'dtu aurais have to verifyVérifier it empiricallyempiriquement.
308
930000
4000
d'abord, dans une telle situation il faudrait effectuer des vérifications empiriques.
15:59
And secondlyDeuxièmement, it's palpablymanifestement falsefaux.
309
934000
2000
Et ensuite, c'est évidemment faux.
16:02
There are lots and lots of things that we don't know about suddensoudain infantbébé deathsdes morts.
310
937000
5000
Il y a énormément de choses que nous ne savons pas sur la mort subite du nourrisson.
16:07
It mightpourrait well be that there are environmentalenvironnement factorsfacteurs that we're not awareconscient of,
311
942000
3000
Il se peut que certains facteurs environnementaux inconnus soient à l'oeuvre,
16:10
and it's prettyjoli likelyprobable to be the caseCas that there are
312
945000
2000
et il y a de fortes chances qu'il y ait
16:12
geneticgénétique factorsfacteurs we're not awareconscient of.
313
947000
2000
des facteurs génétiques que nous ne connaissons pas.
16:14
So if a familyfamille sufferssouffre from one cotlit bébé deathdécès, you'dtu aurais put them in a high-riskrisque élevé groupgroupe.
314
949000
3000
Donc si une famille est victime d'une mort d'un nourrisson, elle devient de fait partie d'un groupe à haut risque.
16:17
They'veIls ont probablyProbablement got these environmentalenvironnement riskrisque factorsfacteurs
315
952000
2000
Ìls sont probablement exposés à des facteurs de risque environnemental
16:19
and/or geneticgénétique riskrisque factorsfacteurs we don't know about.
316
954000
3000
et/ou à ces facteurs génétiques que nous ne connaissons pas.
16:22
And to arguese disputer, then, that the chancechance of a secondseconde deathdécès is as if you didn't know
317
957000
3000
Et de prétendre, alors, connaître les chances d'avoir un second décès comme si on ignorait ces informations
16:25
that informationinformation is really sillyidiot.
318
960000
3000
est vraiment idiot.
16:28
It's worsepire than sillyidiot -- it's really badmal sciencescience.
319
963000
4000
C'est pire qu'idiot -- c'est vraiment de la très mauvaise science.
16:32
NonethelessNéanmoins, that's how it was presentedprésenté, and at trialprocès nobodypersonne even arguedargumenté it.
320
967000
5000
Néanmoins, c'est ainsi que ça a été présenté, et au procès personne n'a essayé de contester.
16:37
That's the first problemproblème.
321
972000
2000
C'est le premier problème.
16:39
The secondseconde problemproblème is, what does the numbernombre of one in 73 millionmillion mean?
322
974000
4000
Le second problème est, que veut dire le nombre de un sur 73 millions ?
16:43
So after SallySally ClarkClark was convictedcondamné --
323
978000
2000
Après que Sally Clark a été reconnue coupable --
16:45
you can imagineimaginer, it madefabriqué ratherplutôt a splashéclaboussure in the presspresse --
324
980000
4000
imaginez, ça a vraiment fait les gros titres de la presse --
16:49
one of the journalistsjournalistes from one of Britain'sDe Grande-Bretagne more reputablehonorable newspapersjournaux wrotea écrit that
325
984000
7000
un des journalistes de l'un des journaux les plus respectables de Grande Bretagne a écrit
16:56
what the expertexpert had said was,
326
991000
2000
que selon l'expert,
16:58
"The chancechance that she was innocentinnocent was one in 73 millionmillion."
327
993000
5000
"Les chances qu'elle soit innocente était d'une sur 73 millions."
17:03
Now, that's a logicallogique errorErreur.
328
998000
2000
Ça, c'est une erreur de logique.
17:05
It's exactlyexactement the sameMême logicallogique errorErreur as the logicallogique errorErreur of thinkingen pensant that
329
1000000
3000
C'est exactement la même erreur de logique que de penser
17:08
after the diseasemaladie testtester, whichlequel is 99 percentpour cent accurateprécis,
330
1003000
2000
après le test de la maladie, qui est 99 fois sur cent juste,
17:10
the chancechance of havingayant the diseasemaladie is 99 percentpour cent.
331
1005000
4000
que la probabilité d'avoir la maladie est de 99 pour cent.
17:14
In the diseasemaladie exampleExemple, we had to bearours in mindesprit two things,
332
1009000
4000
Dans l'exemple du test, il fallait avoir deux choses en tête,
17:18
one of whichlequel was the possibilitypossibilité that the testtester got it right or not.
333
1013000
4000
l'une était la possibilité que le test se trompe ou pas.
17:22
And the other one was the chancechance, a prioripriori, that the personla personne had the diseasemaladie or not.
334
1017000
4000
L'autre était la probabilité, a priori, qu'une personne soit malade.
17:26
It's exactlyexactement the sameMême in this contextle contexte.
335
1021000
3000
C'est exactement la même chose ici.
17:29
There are two things involvedimpliqué -- two partsles pièces to the explanationexplication.
336
1024000
4000
Il y a deux phénomènes à l'oeuvre -- deux faces à l'explication.
17:33
We want to know how likelyprobable, or relativelyrelativement how likelyprobable, two differentdifférent explanationsexplications are.
337
1028000
4000
Nous voulons savoir la probabilité, ou la probabilité relative, de deux explications différentes.
17:37
One of them is that SallySally ClarkClark was innocentinnocent --
338
1032000
3000
L'une des deux est que Sally Clark était innocente --
17:40
whichlequel is, a prioripriori, overwhelminglymassivement likelyprobable --
339
1035000
2000
ce qui est, a priori, extrêmement probable --
17:42
mostles plus mothersmères don't killtuer theirleur childrenles enfants.
340
1037000
3000
la plupart des mères ne tuent pas leur enfants.
17:45
And the secondseconde partpartie of the explanationexplication
341
1040000
2000
Et la seconde partie de l'explication
17:47
is that she sufferedsouffert an incrediblyincroyablement unlikelyimprobable eventun événement.
342
1042000
3000
est qu'elle a subi un évènement incroyablement improbable.
17:50
Not as unlikelyimprobable as one in 73 millionmillion, but nonethelesstoutefois ratherplutôt unlikelyimprobable.
343
1045000
4000
Pas aussi improbable que le suggère le un sur 73 millions, mais néanmoins assez improblable.
17:54
The other explanationexplication is that she was guiltycoupable.
344
1049000
2000
L'autre explication est qu'elle est coupable,
17:56
Now, we probablyProbablement think a prioripriori that's unlikelyimprobable.
345
1051000
2000
Nous pouvons penser a priori que c'est improbable.
17:58
And we certainlycertainement should think in the contextle contexte of a criminalcriminel trialprocès
346
1053000
3000
Et certes, nous devrions penser dans le contexte d'un procès criminel
18:01
that that's unlikelyimprobable, because of the presumptionprésomption of innocenceinnocence.
347
1056000
3000
que c'est improbable, en raison de la présomption d'innocence.
18:04
And then if she were tryingen essayant to killtuer the childrenles enfants, she succeededréussi.
348
1059000
4000
Mais si elle a cherché à tuer les enfants, elle a réussi.
18:08
So the chancechance that she's innocentinnocent isn't one in 73 millionmillion.
349
1063000
4000
Donc la probabilité qu'elle soit innocente n'est pas d'un sur 73 millions.
18:12
We don't know what it is.
350
1067000
2000
Nous ne savons pas ce qu'elle vaut.
18:14
It has to do with weighingpesée up the strengthforce of the other evidencepreuve againstcontre her
351
1069000
4000
Elle est liée à la pondération des preuves contre l'accusée
18:18
and the statisticalstatistique evidencepreuve.
352
1073000
2000
et des résultats statistiques.
18:20
We know the childrenles enfants dieddécédés.
353
1075000
2000
Nous savons que les enfants sont morts.
18:22
What mattersimporte is how likelyprobable or unlikelyimprobable, relativerelatif to eachchaque other,
354
1077000
4000
Ce qui compte, c'est la probabilité ou l'improbabilité relative
18:26
the two explanationsexplications are.
355
1081000
2000
des deux explications.
18:28
And they're bothtous les deux implausiblepeu plausible.
356
1083000
2000
Qui sont toutes deux improbables.
18:31
There's a situationsituation where errorsles erreurs in statisticsstatistiques had really profoundprofond
357
1086000
4000
Il y a des situations dans lesquelles les erreurs de statistiques ont des conséquences
18:35
and really unfortunatemalheureux consequencesconséquences.
358
1090000
3000
profondes et vraiment funestes.
18:38
In factfait, there are two other womenfemmes who were convictedcondamné on the basisbase of the
359
1093000
2000
En fait, deux autres femmes ont aussi été condamnées sur la base
18:40
evidencepreuve of this pediatricianpédiatre, who have subsequentlypar la suite been releasedlibéré on appealcharme.
360
1095000
4000
du témoignage du pédiatre, et ont plus tard été libérées en appel.
18:44
ManyDe nombreux casescas were reviewedrévisé.
361
1099000
2000
De nombreux cas ont été revus.
18:46
And it's particularlyparticulièrement topicaltopique because he's currentlyactuellement facingorienté vers a disreputedéconsidération chargecharge
362
1101000
4000
C'est un sujet d'actualité car ce pédiatre subit actuellement un procès en disgrâce
18:50
at Britain'sDe Grande-Bretagne GeneralGénérales MedicalMedical CouncilConseil.
363
1105000
3000
de la part de l'ordre des médecins de Grande Bretagne.
18:53
So just to concludeconclure -- what are the take-homeramener à la maison messagesmessages from this?
364
1108000
4000
Pour conclure -- quels sont les messages que vous devez retenir de tout ça ?
18:57
Well, we know that randomnessaléatoire and uncertaintyincertitude and chancechance
365
1112000
4000
Bien, nous savons que le hasard, l'incertain, et la probabilité
19:01
are very much a partpartie of our everydaytous les jours life.
366
1116000
3000
font partie de notre vie de tous les jours.
19:04
It's alsoaussi truevrai -- and, althoughbien que, you, as a collectivecollectif, are very specialspécial in manybeaucoup waysfaçons,
367
1119000
5000
Collectivement, bien que spéciaux à bien des égards,
19:09
you're completelycomplètement typicaltypique in not gettingobtenir the examplesexemples I gavea donné right.
368
1124000
4000
vous êtes passés comme tout le monde à côté des exemples que j'ai donnés.
19:13
It's very well documenteddocumenté that people get things wrongfaux.
369
1128000
3000
C'est un fait que les gens ne comprennent pas ces choses-là.
19:16
They make errorsles erreurs of logiclogique in reasoningraisonnement with uncertaintyincertitude.
370
1131000
3000
Ils font des erreurs de logique lorsqu'ils raisonnent dans l'incertain.
19:20
We can copechape with the subtletiessubtilités of languagela langue brilliantlybrillamment --
371
1135000
2000
Nous pouvons nous débrouiller brillamment avec les subtilités du langage --
19:22
and there are interestingintéressant evolutionaryévolutionniste questionsdes questions about how we got here.
372
1137000
3000
et il y a des travaux intéressants sur l'évolution pour expliquer pourquoi nous en sommes là.
19:25
We are not good at reasoningraisonnement with uncertaintyincertitude.
373
1140000
3000
Nous ne sommes pas doués pour raisonner dans l'incertain.
19:28
That's an issueproblème in our everydaytous les jours livesvies.
374
1143000
2000
C'est un problème dans nos vies de tous les jours.
19:30
As you've heardentendu from manybeaucoup of the talkspourparlers, statisticsstatistiques underpinsunderpins an enormousénorme amountmontant
375
1145000
3000
Comme vous l'avez entendu dans les conférences, les statistiques sous-tendent un grand nombre
19:33
of researchrecherche in sciencescience -- in socialsocial sciencescience, in medicinemédicament
376
1148000
3000
de recherches en science -- en science sociale, en médecine
19:36
and indeedeffectivement, quiteassez a lot of industryindustrie.
377
1151000
2000
et aussi, bien sûr, dans l'industrie.
19:38
All of qualityqualité controlcontrôle, whichlequel has had a majorMajeur impactimpact on industrialindustriel processingEn traitement,
378
1153000
4000
Tout le contrôle de la qualité, qui a un impact majeur sur les processus industriels
19:42
is underpinnedsous-tendu by statisticsstatistiques.
379
1157000
2000
est sous-tendu par les statistiques.
19:44
It's something we're badmal at doing.
380
1159000
2000
C'est quelque chose que nous ne savons pas faire.
19:46
At the very leastmoins, we should recognizereconnaître that, and we tendtendre not to.
381
1161000
3000
Tout au moins, nous devrions l'admettre, mais nous avons tendance à ne pas le faire.
19:49
To go back to the legallégal contextle contexte, at the SallySally ClarkClark trialprocès
382
1164000
4000
Pour en revenir à la justice, au procès de Sally Clark
19:53
all of the lawyersavocats just acceptedaccepté what the expertexpert said.
383
1168000
4000
les avocats ont tous accepté ce que l'expert a dit.
19:57
So if a pediatricianpédiatre had come out and said to a juryjury,
384
1172000
2000
Mais si un pédiatre avait dit au jury,
19:59
"I know how to buildconstruire bridgesdes ponts. I've builtconstruit one down the roadroute.
385
1174000
3000
"Je sais construire des ponts. J'en ai construit un en bas de la rue.
20:02
Please driveconduire your carvoiture home over it,"
386
1177000
2000
Vous pouvez passer dessus en voiture"
20:04
they would have said, "Well, pediatricianspédiatres don't know how to buildconstruire bridgesdes ponts.
387
1179000
2000
ils auraient dit, "Les pédiatres ne savent pas construire de ponts.
20:06
That's what engineersingénieurs do."
388
1181000
2000
C'est le travail des ingénieurs."
20:08
On the other handmain, he camevenu out and effectivelyefficacement said, or impliedimplicite,
389
1183000
3000
Mais il a dit, effectivement ou implicitement,
20:11
"I know how to reasonraison with uncertaintyincertitude. I know how to do statisticsstatistiques."
390
1186000
3000
"Je sais raisonner dans l'incertain. Je connais les statistiques."
20:14
And everyonetoutes les personnes said, "Well, that's fine. He's an expertexpert."
391
1189000
3000
Et tout le monde a dit, "C'est OK. Il est expert."
20:17
So we need to understandcomprendre where our competencecompétence is and isn't.
392
1192000
3000
Nous devons savoir quelles sont nos compétences.
20:20
ExactlyExactement the sameMême kindssortes of issuesproblèmes aroses'est levé in the earlyde bonne heure daysjournées of DNAADN profilingprofilage,
393
1195000
4000
Les mêmes problèmes ont été soulevés au début des tests ADN,
20:24
when scientistsscientifiques, and lawyersavocats and in some casescas judgesjuges,
394
1199000
4000
quand les scientifiques, les avocats et certains juges,
20:28
routinelyrégulièrement misrepresenteddéformé evidencepreuve.
395
1203000
3000
déformaient systématiquement la vérité.
20:32
UsuallyGénéralement -- one hopesespère -- innocentlynaïvement, but misrepresenteddéformé evidencepreuve.
396
1207000
3000
En général -- on peut l'espérer -- innocemment, mais ils la déformaient quand même.
20:35
ForensicMédecine légale scientistsscientifiques said, "The chancechance that this guy'sles gars innocentinnocent is one in threeTrois millionmillion."
397
1210000
5000
Les légistes disaient, "La probabilité que ce type soit innocent est d'un sur trois millions.
20:40
Even if you believe the numbernombre, just like the 73 millionmillion to one,
398
1215000
2000
Même si vous croyez en ce nombre, comme un sur 73 millions,
20:42
that's not what it meantsignifiait.
399
1217000
2000
il ne veut pas dire ce que vous croyez.
20:44
And there have been celebratedcélèbre appealcharme casescas
400
1219000
2000
Et il y a eu des cas célèbres d'appels
20:46
in BritainLa Grande-Bretagne and elsewhereautre part because of that.
401
1221000
2000
en Grande Bretagne et ailleurs à cause de cela.
20:48
And just to finishterminer in the contextle contexte of the legallégal systemsystème.
402
1223000
3000
Et juste pour finir sur le thème de la justice,
20:51
It's all very well to say, "Let's do our bestmeilleur to presentprésent the evidencepreuve."
403
1226000
4000
c'est très bien de dire, "Faisons de notre mieux pour présenter les témoignages."
20:55
But more and more, in casescas of DNAADN profilingprofilage -- this is anotherun autre one --
404
1230000
3000
Mais de plus en plus, dans les cas de tests ADN -- et c'en est un --
20:58
we expectattendre juriesjurés, who are ordinaryordinaire people --
405
1233000
3000
nous attendons des jurés, qui sont des gens ordinaires --
21:01
and it's documenteddocumenté they're very badmal at this --
406
1236000
2000
et il est connu qu'ils ne savent pas le faire --
21:03
we expectattendre juriesjurés to be ablecapable to copechape with the sortssortes of reasoningraisonnement that goesva on.
407
1238000
4000
nous attendons des jurés qu'ils soient capables de ce genre de raisonnements.
21:07
In other spheressphères of life, if people arguedargumenté -- well, exceptsauf possiblypeut-être for politicspolitique --
408
1242000
5000
Dans d'autres domaines de la vie, si les gens, en débattant -- disons, sauf en politique.
21:12
but in other spheressphères of life, if people arguedargumenté illogicallyillogiquement,
409
1247000
2000
Mais dans d'autres domaines, si les gens utilisent des arguments illogiques,
21:14
we'dmer say that's not a good thing.
410
1249000
2000
nous dirions que ce n'est pas une bonne chose.
21:16
We sortTrier of expectattendre it of politiciansLes politiciens and don't hopeespérer for much more.
411
1251000
4000
C'est ce que nous demandons aux politiciens et nous n'en demandons pas beaucoup plus.
21:20
In the caseCas of uncertaintyincertitude, we get it wrongfaux all the time --
412
1255000
3000
Dans le cas des probabilités, nous avons toujours faux --
21:23
and at the very leastmoins, we should be awareconscient of that,
413
1258000
2000
mais au moins, nous devrions en être conscients.
21:25
and ideallyidéalement, we mightpourrait try and do something about it.
414
1260000
2000
Et idéalement, nous pourrions peut-être y faire quelque chose.
21:27
ThanksMerci very much.
415
1262000
1000
Merci beaucoup.
Translated by Emmanuel Cohen
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com