ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com
TEDGlobal 2005

Peter Donnelly: How juries are fooled by statistics

פיטר דונלי מדגים כיצד הסטטיסטיקה יכולה לשטות בחבר המושבעים

Filmed:
1,279,860 views

המתמטיקאי האוקספורדי, פיטר דונלי, חושף את הטעויות השכיחות בהבנת המשמעות של עובדות סטטיסטיות, ואת ההשלכות ההרסניות של טעויות כאלה על תוצאות משפטים פליליים.
- Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom. Full bio

Double-click the English transcript below to play the video.

00:25
As other speakersרמקולים have said, it's a ratherבמקום dauntingמרתיעה experienceניסיון --
0
0
2000
כפי שאמרו לפני, זה די מלחיץ --
00:27
a particularlyבִּמְיוּחָד dauntingמרתיעה experienceניסיון -- to be speakingמדבר in frontחֲזִית of this audienceקהל.
1
2000
3000
בעצם, מלחיץ מאוד -- לדבר לפני הקהל הזה.
00:30
But unlikeבניגוד the other speakersרמקולים, I'm not going to tell you about
2
5000
3000
אבל בניגוד לדוברים אחרים, אני לא עומד לספר לכם
00:33
the mysteriesתעלומות of the universeעוֹלָם, or the wondersפלאים of evolutionאבולוציה,
3
8000
2000
על מסתרי היקום, על פלאי האבולוציה,
00:35
or the really cleverחכם, innovativeחדשני waysדרכים people are attackingלתקוף
4
10000
4000
או על דרכים חכמות וחדשניות להתמודדות
00:39
the majorגדול inequalitiesאי שוויון in our worldעוֹלָם.
5
14000
2000
עם חוסר השיוויון העולמי.
00:41
Or even the challengesאתגרים of nation-statesמדינות לאום in the modernמוֹדֶרנִי globalגלוֹבָּלִי economyכַּלְכָּלָה.
6
16000
5000
ואפילו לא על האתגרים של מדינות-הלאום בעידן הכלכלה הגלובלית המודרנית.
00:46
My briefקָצָר, as you've just heardשמע, is to tell you about statisticsסטָטִיסטִיקָה --
7
21000
4000
כפי ששמעתם, אני עומד לספר לכם על סטטיסטיקה --
00:50
and, to be more preciseמְדוּיָק, to tell you some excitingמְרַגֵשׁ things about statisticsסטָטִיסטִיקָה.
8
25000
3000
ואם נדייק, לספר לכם כמה דברים מרתקים על סטטיסטיקה.
00:53
And that's --
9
28000
1000
וזה --
00:54
(Laughterצחוק)
10
29000
1000
[צחוק]
00:55
-- that's ratherבמקום more challengingמאתגר
11
30000
2000
-- זהו אתגר גדול יותר מזה של
00:57
than all the speakersרמקולים before me and all the onesיחידות comingמגיע after me.
12
32000
2000
כל הדוברים שהיו לפני וכל אלה שיגיעו בהמשך.
00:59
(Laughterצחוק)
13
34000
1000
[צחוק]
01:01
One of my seniorבָּכִיר colleaguesעמיתים told me, when I was a youngsterצָעִיר in this professionמִקצוֹעַ,
14
36000
5000
אחד מעמיתי הבכירים אמר לי בגאווה רבה, בתחילת דרכי במקצוע הזה,
01:06
ratherבמקום proudlyבגאווה, that statisticiansסטטיסטיקאים were people who likedאהב figuresדמויות
15
41000
4000
שסטטיסטיקאים הם אנשים שאוהבים מספרים,
01:10
but didn't have the personalityאִישִׁיוּת skillsמיומנויות to becomeהפכו accountantsרואי חשבון.
16
45000
3000
אבל אין להם כישורי האישיות הדרושים להיות רואי חשבון.
01:13
(Laughterצחוק)
17
48000
2000
[צחוק]
01:15
And there's anotherאַחֵר in-jokeבדיחה amongבין statisticiansסטטיסטיקאים, and that's,
18
50000
3000
ויש עוד בדיחה פנימית של סטטיסטיקאים,
01:18
"How do you tell the introvertedמופנם statisticianסטָטִיסטִיקָן from the extrovertedמוחצן statisticianסטָטִיסטִיקָן?"
19
53000
3000
"איך מבדילים בין סטטיסטיקאי מופנם לסטטיסטיקאי מוחצן?"
01:21
To whichאיזה the answerתשובה is,
20
56000
2000
והתשובה היא,
01:23
"The extrovertedמוחצן statistician'sסטטיסטיקאי the one who looksנראה at the other person'sשל אדם shoesנעליים."
21
58000
5000
"הסטטיסטיקאי המוחצן הוא זה שבוחן נעליים של אנשים אחרים."
01:28
(Laughterצחוק)
22
63000
3000
[צחוק]
01:31
But I want to tell you something usefulמוֹעִיל -- and here it is, so concentrateלְהִתְרַכֵּז now.
23
66000
5000
אבל אני רוצה לדבר על משהו שימושי - - אז כדאי להתרכז עכשיו.
01:36
This eveningעֶרֶב, there's a receptionקבלה in the University'sהאוניברסיטה Museumמוּזֵיאוֹן of Naturalטִבעִי Historyהִיסטוֹרִיָה.
24
71000
3000
הערב נערכת קבלת פנים במוזיאון להיסטוריה של הטבע של האוניברסיטה.
01:39
And it's a wonderfulנִפלָא settingהגדרה, as I hopeלְקַווֹת you'llאתה find,
25
74000
2000
זהו אתר נפלא, כפי שאני מקווה שתגלו,
01:41
and a great iconסמל to the bestהטוב ביותר of the Victorianויקטוריאני traditionמָסוֹרֶת.
26
76000
5000
וסמל חשוב למיטב המסורת הויקטוריאנית.
01:46
It's very unlikelyלא סביר -- in this specialמיוחד settingהגדרה, and this collectionאוסף of people --
27
81000
5000
זה מאוד לא סביר -- באתר המיוחד הזה ועם אוסף האנשים הזה --
01:51
but you mightאולי just find yourselfעַצמְךָ talkingשִׂיחָה to someoneמִישֶׁהוּ you'dהיית רוצה ratherבמקום wishבַּקָשָׁה that you weren'tלא היו.
28
86000
3000
אבל אתם עלולים למצוא את עצמכם מדברים עם מישהו שאתם מעדיפים להמנע משיחה איתו.
01:54
So here'sהנה what you do.
29
89000
2000
אז זה מה שאתם צריכים לעשות.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statisticianסטָטִיסטִיקָן."
30
91000
4000
כששואלים אתכם, "במה אתם עוסקים?" -- תגידו "אני סטטיסטיקאי."
02:00
(Laughterצחוק)
31
95000
1000
[צחוק]
02:01
Well, exceptמלבד they'veהם כבר been pre-warnedמראש הזהיר now, and they'llהם יהיו know you're makingהֲכָנָה it up.
32
96000
4000
אבל עכשיו הם כבר קיבלו אזהרה מוקדמת וידעו שאתם מבלפים.
02:05
And then one of two things will happenלִקְרוֹת.
33
100000
2000
ואז יש שתי אפשרויות.
02:07
They'llהם יהיו eitherאוֹ discoverלְגַלוֹת theirשֶׁלָהֶם long-lostאבוד מזמן cousinבת דודה in the other cornerפינה of the roomחֶדֶר
34
102000
2000
הם יגלו את הדודן האבוד שלהם בפינה הרחוקה
02:09
and runלָרוּץ over and talk to them.
35
104000
2000
של החדר וירוצו לדבר איתו.
02:11
Or they'llהם יהיו suddenlyפִּתְאוֹם becomeהפכו parchedצָחִיחַ and/or hungryרָעֵב -- and oftenלעתים קרובות bothשניהם --
36
106000
3000
או שהם יזכרו באופן פתאומי שהם מתים מצמא ו/או מרעב
02:14
and sprintריצה מהירה off for a drinkלִשְׁתוֹת and some foodמזון.
37
109000
2000
ויפתחו בריצה קלה לעבר המשקאות והמזון.
02:16
And you'llאתה be left in peaceשָׁלוֹם to talk to the personאדם you really want to talk to.
38
111000
4000
ואז תהיו חופשיים לדבר עם מי שבאמת תרצו לדבר איתו.
02:20
It's one of the challengesאתגרים in our professionמִקצוֹעַ to try and explainלהסביר what we do.
39
115000
3000
אחד מאתגרי המקצוע הוא לנסות להסביר מה אנחנו עושים.
02:23
We're not topחלק עליון on people'sשל אנשים listsרשימות for dinnerאֲרוּחַת עֶרֶב partyמפלגה guestsאורחים and conversationsשיחות and so on.
40
118000
5000
אנחנו לא בראש רשימות האורחים והנושאים לשיחה בסעודות חגיגיות.
02:28
And it's something I've never really foundמצאתי a good way of doing.
41
123000
2000
וזה משהו שמעולם לא מצאתי דרך טובה לבצע.
02:30
But my wifeאישה -- who was then my girlfriendחֲבֵרָה --
42
125000
3000
אבל אשתי -- שהייתה אז החברה שלי --
02:33
managedמנוהל it much better than I've ever been ableיכול to.
43
128000
3000
טיפלה בזה הרבה יותר טוב ממני.
02:36
Manyרב yearsשנים agoלִפנֵי, when we first startedהתחיל going out, she was workingעובד for the BBCBBC in Britainבְּרִיטַנִיָה,
44
131000
3000
לפני הרבה שנים, כשהתחלנו לצאת, היא עבדה עבור הבי.בי.סי. בבריטניה,
02:39
and I was, at that stageשלב, workingעובד in Americaאמריקה.
45
134000
2000
ובאותו שלב, אני עבדתי באמריקה.
02:41
I was comingמגיע back to visitלְבַקֵר her.
46
136000
2000
חזרתי כדי לבקר אותה.
02:43
She told this to one of her colleaguesעמיתים, who said, "Well, what does your boyfriendהֶחָבֵר do?"
47
138000
6000
היא סיפרה על כך לאחת מחברותיה לעבודה ששאלה, "במה עוסק החבר שלך?"
02:49
Sarahשרה thought quiteדַי hardקָשֶׁה about the things I'd explainedהסביר --
48
144000
2000
שרה חשבה עמוקות על הדברים שהסברתי --
02:51
and she concentratedמְרוּכָּז, in those daysימים, on listeningהַקשָׁבָה.
49
146000
4000
באותם הימים היא התרכזה בהקשבה.
02:55
(Laughterצחוק)
50
150000
2000
[צחוק]
02:58
Don't tell her I said that.
51
153000
2000
אל תגלו לה שאמרתי את זה.
03:00
And she was thinkingחושב about the work I did developingמתפתח mathematicalמָתֵימָטִי modelsמודלים
52
155000
4000
היא חשבה על העבודה שלי בפיתוח מודלים מתמטיים
03:04
for understandingהֲבָנָה evolutionאבולוציה and modernמוֹדֶרנִי geneticsגנטיקה.
53
159000
3000
להבנה של אבולוציה וגנטיקה מודרנית.
03:07
So when her colleagueעמית said, "What does he do?"
54
162000
3000
וכאשר העמיתה שלה שאלה, "במה הוא עוסק?"
03:10
She pausedמושהה and said, "He modelsמודלים things."
55
165000
4000
היא עצרה רגע ואמרה, "הוא מדגמן (=בונה דגמים של) דברים."
03:14
(Laughterצחוק)
56
169000
1000
[צחוק]
03:15
Well, her colleagueעמית suddenlyפִּתְאוֹם got much more interestedמעוניין than I had any right to expectלְצַפּוֹת
57
170000
4000
העמיתה שלה גילתה פתאום עניין רב שלא הייתי ראוי לו
03:19
and wentהלך on and said, "What does he modelדֶגֶם?"
58
174000
3000
ושאלה, "מה הוא מדגמן?"
03:22
Well, Sarahשרה thought a little bitbit more about my work and said, "Genesגנים."
59
177000
3000
שרה חשבה עוד קצת על העבודה שלי וענתה "ג'ינס (=גנים)."
03:25
(Laughterצחוק)
60
180000
4000
[צחוק]
03:29
"He modelsמודלים genesגנים."
61
184000
2000
"הוא מדגמן ג'ינס."
03:31
That is my first love, and that's what I'll tell you a little bitbit about.
62
186000
4000
וזוהי אהבתי הראשונה, עליה אדבר קצת עכשיו.
03:35
What I want to do more generallyבדרך כלל is to get you thinkingחושב about
63
190000
4000
וביתר כלליות, אני רוצה שתחשבו
03:39
the placeמקום of uncertaintyחוסר ודאות and randomnessאקראיות and chanceהִזדַמְנוּת in our worldעוֹלָם,
64
194000
3000
על המקום של חוסר הוודאות, האקראיות והמקרה בעולמנו,
03:42
and how we reactלְהָגִיב to that, and how well we do or don't think about it.
65
197000
5000
איך אנחנו מגיבים להם, ועד כמה אנו חושבים עליהם בצורה נכונה.
03:47
So you've had a prettyיפה easyקַל time up tillעד now --
66
202000
2000
בהרצאות עד עכשיו היה לכם די קל --
03:49
a fewמְעַטִים laughsצוחק, and all that kindסוג of thing -- in the talksשיחות to dateתַאֲרִיך.
67
204000
2000
קצת צחוקים, ודברים כאלה.
03:51
You've got to think, and I'm going to askלִשְׁאוֹל you some questionsשאלות.
68
206000
3000
עכשיו תצטרכו להפעיל את המוח, ואני עומד לשאול אתכם כמה שאלות.
03:54
So here'sהנה the sceneסְצֵינָה for the first questionשְׁאֵלָה I'm going to askלִשְׁאוֹל you.
69
209000
2000
זאת התפאורה לשאלה הראשונה שאציג בפניכם.
03:56
Can you imagineלדמיין tossingזורק a coinמַטְבֵּעַ successivelyברציפות?
70
211000
3000
תוכלו לדמיין את עצמכם מטילים מטבע ברצף?
03:59
And for some reasonסיבה -- whichאיזה shallיהיה remainלְהִשָׁאֵר ratherבמקום vagueמְעוּרפָּל --
71
214000
3000
מסיבה כלשהי -- שתשאר די מעורפלת --
04:02
we're interestedמעוניין in a particularמיוחד patternתַבְנִית.
72
217000
2000
אנחנו מתעניינים בדפוס מסויים.
04:04
Here'sהנה one -- a headרֹאשׁ, followedאחריו by a tailזָנָב, followedאחריו by a tailזָנָב.
73
219000
3000
הנה דפוס - עץ, אחריו פלי, ואחריו פלי.
04:07
So supposeלְהַנִיחַ we tossלִזרוֹק a coinמַטְבֵּעַ repeatedlyשוב ושוב.
74
222000
3000
נניח שאנחנו חוזרים על הטלת מטבע.
04:10
Then the patternתַבְנִית, head-tail-tailזנבות הזנב, that we'veיש לנו suddenlyפִּתְאוֹם becomeהפכו fixatedמקובע with happensקורה here.
75
225000
5000
ואז הדפוס של עץ-פלי-פלי, שפתאום התחלנו לגלות בו ענין רב, מופיע כאן.
04:15
And you can countלספור: one, two, threeשְׁלוֹשָׁה, fourארבעה, fiveחָמֵשׁ, sixשֵׁשׁ, sevenשֶׁבַע, eightשמונה, nineתֵשַׁע, 10 --
76
230000
4000
ואפשר לספור: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 --
04:19
it happensקורה after the 10thה tossלִזרוֹק.
77
234000
2000
הוא מופיע אחרי ההטלה ה-10.
04:21
So you mightאולי think there are more interestingמעניין things to do, but humorהוּמוֹר me for the momentרֶגַע.
78
236000
3000
אולי תחשבו שיש דברים יותר מעניינים לעשות, אבל תשארו איתי רגע.
04:24
Imagineלדמיין this halfחֲצִי of the audienceקהל eachכל אחד get out coinsמטבעות, and they tossלִזרוֹק them
79
239000
4000
דמיינו שהחצי הזה של הקהל מקבל מטבעות ומטיל אותם
04:28
untilעד they first see the patternתַבְנִית head-tail-tailזנבות הזנב.
80
243000
3000
עד הפעם הראשונה בה מופיע עץ-פלי-פלי.
04:31
The first time they do it, maybe it happensקורה after the 10thה tossלִזרוֹק, as here.
81
246000
2000
בפעם הראשונה אולי זה יופיע אחרי ההטלה ה-10, כמו כאן.
04:33
The secondשְׁנִיָה time, maybe it's after the fourthרביעי tossלִזרוֹק.
82
248000
2000
בפעם השנייה אולי אחרי ההטלה ה-4.
04:35
The nextהַבָּא time, after the 15thה tossלִזרוֹק.
83
250000
2000
בפעם הבאה, אחרי ההטלה ה-15.
04:37
So you do that lots and lots of timesפִּי, and you averageמְמוּצָע those numbersמספרים.
84
252000
3000
תחזרו על כך הרבה פעמים, ותחשבו ממוצע של המספרים האלה.
04:40
That's what I want this sideצַד to think about.
85
255000
3000
זה מה שאני רוצה שהצד הזה יחשוב עליו.
04:43
The other halfחֲצִי of the audienceקהל doesn't like head-tail-tailזנבות הזנב --
86
258000
2000
החצי השני של הקהל לא מחבב את עץ-פלי-פלי --
04:45
they think, for deepעָמוֹק culturalתַרְבּוּתִי reasonsסיבות, that's boringמְשַׁעֲמֵם --
87
260000
3000
הם חושבים, מסיבות תרבותיות עמוקות, שזהו דפוס משעמם --
04:48
and they're much more interestedמעוניין in a differentשונה patternתַבְנִית -- head-tail-headראש הזנב.
88
263000
3000
והם מגלים עניין רב בדפוס אחר -- עץ-פלי-עץ.
04:51
So, on this sideצַד, you get out your coinsמטבעות, and you tossלִזרוֹק and tossלִזרוֹק and tossלִזרוֹק.
89
266000
3000
אז, בצד הזה, תקבלו את המטבעות שלכם, ותטילו אותם שוב ושוב ושוב.
04:54
And you countלספור the numberמספר of timesפִּי untilעד the patternתַבְנִית head-tail-headראש הזנב appearsמופיע
90
269000
3000
ואתם תספרו את מספר ההטלות עד שהדפוס עץ-פלי-עץ מופיע
04:57
and you averageמְמוּצָע them. OK?
91
272000
3000
ותחשבו ממוצע שלהן. אוקי?
05:00
So on this sideצַד, you've got a numberמספר --
92
275000
2000
אז בצד הזה, יש לכם מספר --
05:02
you've doneבוצע it lots of timesפִּי, so you get it accuratelyבמדויק --
93
277000
2000
עשיתם זאת הרבה פעמים, אז קיבלתם תוצאה מדוייקת --
05:04
whichאיזה is the averageמְמוּצָע numberמספר of tossesזורק untilעד head-tail-tailזנבות הזנב.
94
279000
3000
שהיא מספר ההטלות הממוצע עד לעץ-פלי-פלי.
05:07
On this sideצַד, you've got a numberמספר -- the averageמְמוּצָע numberמספר of tossesזורק untilעד head-tail-headראש הזנב.
95
282000
4000
ובצד הזה, יש לכם מספר -- מספר ההטלות הממוצע עד לעץ-פלי-עץ.
05:11
So here'sהנה a deepעָמוֹק mathematicalמָתֵימָטִי factעוּבדָה --
96
286000
2000
עובדה מתמטית עמוקה --
05:13
if you've got two numbersמספרים, one of threeשְׁלוֹשָׁה things mustצריך be trueנָכוֹן.
97
288000
3000
אם יש לכם 2 מספרים, אחד מ-3 הדברים הבאים חייב להתקיים.
05:16
Eitherאוֹ they're the sameאותו, or this one'sיחידות biggerגדול יותר than this one,
98
291000
3000
או שהם זהים, או שזה יותר גדול מזה,
05:19
or this one'sיחידות biggerגדול יותר than that one.
99
294000
1000
או שזה יותר גדול מזה.
05:20
So what's going on here?
100
295000
3000
מה קורה כאן?
05:23
So you've all got to think about this, and you've all got to voteהַצבָּעָה --
101
298000
2000
כולכם צריכים לחשוב, וכולכם צריכים להצביע --
05:25
and we're not movingמעבר דירה on.
102
300000
1000
ואנחנו לא מתקדמים.
05:26
And I don't want to endסוֹף up in the two-minuteשתי דקות silenceשתיקה
103
301000
2000
ולא הייתי רוצה שתיווצר שתיקה של 2 דקות
05:28
to give you more time to think about it, untilעד everyone'sשל כולם expressedהביע a viewנוף. OK.
104
303000
4000
כדי שיהיה לכם יותר זמן לחשוב על כך, עד שכולם יחוו את דעתם.
05:32
So what you want to do is compareלְהַשְׁווֹת the averageמְמוּצָע numberמספר of tossesזורק untilעד we first see
105
307000
4000
נרצה להשוות את מספר ההטלות הממוצע עד שנראה עץ-פלי-עץ בפעם הראשונה
05:36
head-tail-headראש הזנב with the averageמְמוּצָע numberמספר of tossesזורק untilעד we first see head-tail-tailזנבות הזנב.
106
311000
4000
למספר ההטלות הממוצע עד שנראה עץ-פלי-פלי בפעם הראשונה.
05:41
Who thinksחושב that A is trueנָכוֹן --
107
316000
2000
מי חושב שא' נכון --
05:43
that, on averageמְמוּצָע, it'llזה יהיה take longerארוך יותר to see head-tail-headראש הזנב than head-tail-tailזנבות הזנב?
108
318000
4000
כלומר, בממוצע, ייקח יותר זמן לראות עץ-פלי-עץ מאשר עץ-פלי-פלי?
05:47
Who thinksחושב that B is trueנָכוֹן -- that on averageמְמוּצָע, they're the sameאותו?
109
322000
3000
מי חושב שב' נכון -- שבממוצע הם זהים?
05:51
Who thinksחושב that C is trueנָכוֹן -- that, on averageמְמוּצָע, it'llזה יהיה take lessפָּחוּת time
110
326000
2000
מי חושב שג' נכון -- שבממוצע זה יקח פחות פעמים
05:53
to see head-tail-headראש הזנב than head-tail-tailזנבות הזנב?
111
328000
3000
לראות עץ-פלי-עץ מאשר עץ-פלי-פלי?
05:57
OK, who hasn'tלא votedהצביעו yetעדיין? Because that's really naughtyשובב -- I said you had to.
112
332000
3000
מי עדיין לא הצביע? שובבים -- אמרתי שחייבים להצביע.
06:00
(Laughterצחוק)
113
335000
1000
[צחוק]
06:02
OK. So mostרוב people think B is trueנָכוֹן.
114
337000
3000
רוב האנשים חושבים שב' נכון.
06:05
And you mightאולי be relievedהקלה to know even ratherבמקום distinguishedנִכבָּד mathematiciansמתמטיקאים think that.
115
340000
3000
ואולי תשמחו לשמוע שמתמטיקאים די מכובדים חושבים כמוכם.
06:08
It's not. A is trueנָכוֹן here.
116
343000
4000
אבל לא. א' היא התשובה הנכונה.
06:12
It takes longerארוך יותר, on averageמְמוּצָע.
117
347000
2000
זה לוקח יותר זמן, בממוצע.
06:14
In factעוּבדָה, the averageמְמוּצָע numberמספר of tossesזורק tillעד head-tail-headראש הזנב is 10
118
349000
2000
למעשה, מספר ההטלות הממוצע עד עץ-פלי-עץ הוא 10
06:16
and the averageמְמוּצָע numberמספר of tossesזורק untilעד head-tail-tailזנבות הזנב is eightשמונה.
119
351000
5000
ומספר ההטלות הממוצע עד עץ-פלי-פלי הוא 8.
06:21
How could that be?
120
356000
2000
איך זה ייתכן?
06:24
Anything differentשונה about the two patternsדפוסי?
121
359000
3000
יש הבדל בין שני הדפוסים?
06:30
There is. Head-tail-headראש זנב ראש overlapsחפיפה itselfעצמה.
122
365000
5000
והתשובה היא כן. עץ-פלי-עץ חופף את עצמו.
06:35
If you wentהלך head-tail-head-tail-headראש זנב ראש בראש הזנב, you can cunninglyבערמומיות get two occurrencesמופעים
123
370000
4000
אם יוצא לכם עץ-פלי-עץ-פלי-עץ, תוכלו לקבל בערמומיות 2 מופעים
06:39
of the patternתַבְנִית in only fiveחָמֵשׁ tossesזורק.
124
374000
3000
של הדפוס ב-5 הטלות בלבד.
06:42
You can't do that with head-tail-tailזנבות הזנב.
125
377000
2000
לא ניתן לעשות זאת עם עץ-פלי-פלי.
06:44
That turnsפונה out to be importantחָשׁוּב.
126
379000
2000
ומסתבר שזה חשוב.
06:46
There are two waysדרכים of thinkingחושב about this.
127
381000
2000
יש 2 דרכים לחשוב על כך.
06:48
I'll give you one of them.
128
383000
2000
אציג בפניכם אחת מהן.
06:50
So imagineלדמיין -- let's supposeלְהַנִיחַ we're doing it.
129
385000
2000
דמיינו לעצמכם -- נניח שאנחנו מבצעים זאת.
06:52
On this sideצַד -- rememberלִזכּוֹר, you're excitedנִרגָשׁ about head-tail-tailזנבות הזנב;
130
387000
2000
בצד הזה -- אתם זוכרים, אתם מתלהבים מעץ-פלי-פלי,
06:54
you're excitedנִרגָשׁ about head-tail-headראש הזנב.
131
389000
2000
ואתם מתלהבים מעץ-פלי-עץ.
06:56
We startהַתחָלָה tossingזורק a coinמַטְבֵּעַ, and we get a headרֹאשׁ --
132
391000
3000
אנחנו מתחילים להטיל מטבע, וקיבלנו עץ --
06:59
and you startהַתחָלָה sittingיְשִׁיבָה on the edgeקָצֶה of your seatמושב
133
394000
1000
אתם יושבים על קצה הכסא
07:00
because something great and wonderfulנִפלָא, or awesomeמדהים, mightאולי be about to happenלִקְרוֹת.
134
395000
5000
כי ייתכן שמשהו ענק ונפלא, או עצום וכביר, עומד להתרחש.
07:05
The nextהַבָּא tossלִזרוֹק is a tailזָנָב -- you get really excitedנִרגָשׁ.
135
400000
2000
ההטלה הבאה היא פלי -- אתם ממש מתלהבים.
07:07
The champagne'sשמפניה on iceקרח just nextהַבָּא to you; you've got the glassesמשקפיים chilledמְקוֹרָר to celebrateלַחֲגוֹג.
136
402000
4000
השמפניה בקרח מוכנה, הגביעים כבר בקירור לקראת החגיגה.
07:11
You're waitingהַמתָנָה with batedמאוהב breathנְשִׁימָה for the finalסופי tossלִזרוֹק.
137
406000
2000
אתם מחכים בנשימה עצורה להטלה הסופית.
07:13
And if it comesבא down a headרֹאשׁ, that's great.
138
408000
2000
אם יוצא עץ, זה נפלא.
07:15
You're doneבוצע, and you celebrateלַחֲגוֹג.
139
410000
2000
סיימתם ואתם חוגגים.
07:17
If it's a tailזָנָב -- well, ratherבמקום disappointedlyמאוכזבת, you put the glassesמשקפיים away
140
412000
2000
אם יוצא פלי -- אז, באכזבה רבה, אתם מניחים
07:19
and put the champagneשמפנייה back.
141
414000
2000
את הגביעים ואת השמפניה בצד.
07:21
And you keep tossingזורק, to wait for the nextהַבָּא headרֹאשׁ, to get excitedנִרגָשׁ.
142
416000
3000
ואתם ממשיכים להטיל, לחכות לעץ הבא, להתלהב.
07:25
On this sideצַד, there's a differentשונה experienceניסיון.
143
420000
2000
בצד הזה, ההתנסות היא שונה.
07:27
It's the sameאותו for the first two partsחלקים of the sequenceסדר פעולות.
144
422000
3000
זה אותו הדבר בשני החלקים הראשונים של הסדרה.
07:30
You're a little bitbit excitedנִרגָשׁ with the first headרֹאשׁ --
145
425000
2000
אתם קצת מתרגשים כשמופיע העץ הראשון --
07:32
you get ratherבמקום more excitedנִרגָשׁ with the nextהַבָּא tailזָנָב.
146
427000
2000
מתלהבים קצת יותר עם הפלי הבא.
07:34
Then you tossלִזרוֹק the coinמַטְבֵּעַ.
147
429000
2000
ואז אתם מטילים את המטבע.
07:36
If it's a tailזָנָב, you crackסדק openלִפְתוֹחַ the champagneשמפנייה.
148
431000
3000
אם יצא פלי, פותחים את השמפניה.
07:39
If it's a headרֹאשׁ you're disappointedמְאוּכזָב,
149
434000
2000
אם יצא עץ, אתם מאוכזבים,
07:41
but you're still a thirdשְׁלִישִׁי of the way to your patternתַבְנִית again.
150
436000
3000
אבל אתם כבר בשליש הדרך לקראת הדפוס הבא שלכם.
07:44
And that's an informalלא רשמי way of presentingמציג it -- that's why there's a differenceהֶבדֵל.
151
439000
4000
זוהי דרך לא פורמלית להציג זאת -- אבל זאת הסיבה להבדל.
07:48
Anotherאַחֵר way of thinkingחושב about it --
152
443000
2000
דרך אחרת לחשוב על כך --
07:50
if we tossedזרק a coinמַטְבֵּעַ eightשמונה millionמִילִיוֹן timesפִּי,
153
445000
2000
אם היינו מטילים מטבע 8 מיליון פעמים,
07:52
then we'dלהתחתן expectלְצַפּוֹת a millionמִילִיוֹן head-tail-headsראש זנב ראש
154
447000
2000
היינו מצפים למיליון עץ-פלי-עץ
07:54
and a millionמִילִיוֹן head-tail-tailsזנב זנבות -- but the head-tail-headsראש זנב ראש could occurמתרחש in clumpsגושים.
155
449000
7000
ולמיליון עץ-פלי-פלי -- אבל העץ-פלי-עץ היו יכולים להופיע במקבצים.
08:01
So if you want to put a millionמִילִיוֹן things down amongstבֵּין eightשמונה millionמִילִיוֹן positionsעמדות
156
456000
2000
אז אם רוצים לשים מיליון דברים בין 8 מיליון מקומות
08:03
and you can have some of them overlappingחוֹפֵף, the clumpsגושים will be furtherנוסף apartמלבד.
157
458000
5000
כשחלקם יכולים להיות חופפים, הרווחים בין המקבצים יהיו גדולים יותר.
08:08
It's anotherאַחֵר way of gettingמקבל the intuitionאינטואיציה.
158
463000
2000
זוהי דרך אחת להסבר אינטואיטיבי.
08:10
What's the pointנְקוּדָה I want to make?
159
465000
2000
מה אני רוצה להגיד?
08:12
It's a very, very simpleפָּשׁוּט exampleדוגמא, an easilyבְּקַלוּת statedנָקוּב questionשְׁאֵלָה in probabilityהִסתַבְּרוּת,
160
467000
4000
זוהי דוגמא מאוד מאוד פשוטה, שאלה בהסתברות שמנוסחת בקלות,
08:16
whichאיזה everyכֹּל -- you're in good companyחֶברָה -- everybodyכולם getsמקבל wrongלא בסדר.
161
471000
3000
שכולם -- אתם בחברה טובה -- כולם טועים בה.
08:19
This is my little diversionהַסָחָה into my realאמיתי passionתשוקה, whichאיזה is geneticsגנטיקה.
162
474000
4000
זוהי סטייה קטנה לתשוקה האמיתית שלי - גנטיקה.
08:23
There's a connectionחיבור betweenבֵּין head-tail-headsראש זנב ראש and head-tail-tailsזנב זנבות in geneticsגנטיקה,
163
478000
3000
יש קשר בין עץ-פלי-עץ ועץ-פלי-פלי בגנטיקה
08:26
and it's the followingהבא.
164
481000
3000
ואציג אותו בפניכם.
08:29
When you tossלִזרוֹק a coinמַטְבֵּעַ, you get a sequenceסדר פעולות of headsראשים and tailsפרָאק.
165
484000
3000
כאשר מטילים מטבע, מקבלים סדרה של עצים ופלים.
08:32
When you look at DNAדנ"א, there's a sequenceסדר פעולות of not two things -- headsראשים and tailsפרָאק --
166
487000
3000
כשמתבוננים בדי.אן.איי., יש סדרות שאינן של 2 דברים -- עצים ופלים --
08:35
but fourארבעה lettersאותיות -- As, GsGs, CsCs and TsTs.
167
490000
3000
אלא של 4 אותיות -- A-ים, G-ים, C-ים ו-T-ים.
08:38
And there are little chemicalכִּימִי scissorsמספריים, calledשקוראים לו restrictionהַגבָּלָה enzymesאנזימים
168
493000
3000
יש מספריים כימיים קטנים שנקראים אנזימי הגבלה
08:41
whichאיזה cutגזירה DNAדנ"א wheneverבְּכָל פַּעַם they see particularמיוחד patternsדפוסי.
169
496000
2000
שחותכים את הדי.אן.איי. כשהם נתקלים בדפוסים מסויימים.
08:43
And they're an enormouslyמְאוֹד מְאוֹד usefulמוֹעִיל toolכְּלִי in modernמוֹדֶרנִי molecularמולקולרי biologyביולוגיה.
170
498000
4000
הם כלי שימושי ביותר בביולוגיה מולקולרית מודרנית.
08:48
And insteadבמקום זאת of askingשואל the questionשְׁאֵלָה, "How long untilעד I see a head-tail-headראש הזנב?" --
171
503000
3000
ובמקום לשאול, "כמה זמן יקח עד שנראה עץ-פלי-עץ?" --
08:51
you can askלִשְׁאוֹל, "How bigגָדוֹל will the chunksגושים be when I use a restrictionהַגבָּלָה enzymeאֶנזִים
172
506000
3000
אפשר לשאול, "מה יהיה גודל החתיכות כשאשתמש באנזים הגבלה
08:54
whichאיזה cutsחתכים wheneverבְּכָל פַּעַם it seesרואה G-A-A-GGAAG, for exampleדוגמא?
173
509000
4000
שחותך בכל פעם שהוא מוצא G-A-A-G, לדוגמא?
08:58
How long will those chunksגושים be?"
174
513000
2000
מה יהיה אורך החתיכות?"
09:00
That's a ratherבמקום trivialקַטנוּנִי connectionחיבור betweenבֵּין probabilityהִסתַבְּרוּת and geneticsגנטיקה.
175
515000
5000
זהו קשר די טריוויאלי בין הסתברות וגנטיקה.
09:05
There's a much deeperעמוק יותר connectionחיבור, whichאיזה I don't have time to go into
176
520000
3000
יש קשר הרבה יותר עמוק, שאין לי זמן להכנס אליו,
09:08
and that is that modernמוֹדֶרנִי geneticsגנטיקה is a really excitingמְרַגֵשׁ areaאֵזוֹר of scienceמַדָע.
177
523000
3000
והוא שגנטיקה מודרנית היא שטח מדעי מאוד מרתק.
09:11
And we'llטוֹב hearלִשְׁמוֹעַ some talksשיחות laterיותר מאוחר in the conferenceוְעִידָה specificallyבאופן ספציפי about that.
178
526000
4000
בהמשך הועידה נשמע כמה הרצאות על הנושא.
09:15
But it turnsפונה out that unlockingפותח the secretsסודות in the informationמֵידָע generatedשנוצר by modernמוֹדֶרנִי
179
530000
4000
אבל מתברר שחשיפת הסודות בנתונים שמיוצרים ע"י
09:19
experimentalנִסיוֹנִי technologiesטכנולוגיות, a keyמַפְתֵחַ partחֵלֶק of that has to do with fairlyלְמַדַי sophisticatedמתוחכם --
180
534000
5000
טכנולוגיות ניסיוניות מודרניות, מרכיב מפתח בחשיפה זו --
09:24
you'llאתה be relievedהקלה to know that I do something usefulמוֹעִיל in my day jobעבודה,
181
539000
3000
ודאי תשמחו לשמוע שאני עוסק בדברים שימושיים בעבודת היום-יום שלי,
09:27
ratherבמקום more sophisticatedמתוחכם than the head-tail-headראש הזנב storyכַּתָבָה --
182
542000
2000
מורכבים יותר מסיפור העץ-פלי-עץ --
09:29
but quiteדַי sophisticatedמתוחכם computerמַחשֵׁב modelingsדוגמנות and mathematicalמָתֵימָטִי modelingsדוגמנות
183
544000
4000
מודלים מחשביים ומודלים מתמטיים
09:33
and modernמוֹדֶרנִי statisticalסטָטִיסטִי techniquesטכניקות.
184
548000
2000
וטכניקות סטטיסטיות מודרניות מתוחכמים למדי.
09:35
And I will give you two little snippetsקטעי טקסט -- two examplesדוגמאות --
185
550000
3000
אציג בפניכם 2 דוגמאות
09:38
of projectsפרויקטים we're involvedמְעוּרָב in in my groupקְבוּצָה in Oxfordאוקספורד,
186
553000
3000
לפרוייקטים שהקבוצה שלי מאוקספורד מעורבת בהם.
09:41
bothשניהם of whichאיזה I think are ratherבמקום excitingמְרַגֵשׁ.
187
556000
2000
אני חושב ששניהם מרתקים למדי.
09:43
You know about the Humanבן אנוש Genomeגנום Projectפּרוֹיֶקט.
188
558000
2000
ודאי שמעתם על פרוייקט הגנום האנושי.
09:45
That was a projectפּרוֹיֶקט whichאיזה aimedמְכוּוָן to readלקרוא one copyעותק of the humanבן אנוש genomeגנום.
189
560000
4000
זהו פרייקט שמטרתו הייתה קריאת עותק אחד של הגנום האנושי.
09:51
The naturalטִבעִי thing to do after you've doneבוצע that --
190
566000
2000
לאחר שהפרוייקט הושלם - הדבר הטבעי לעשותו
09:53
and that's what this projectפּרוֹיֶקט, the Internationalבינלאומי HapMapHapMap Projectפּרוֹיֶקט,
191
568000
2000
הוא מה שעשה פרוייקט ה-HapMap הבינלאומי,
09:55
whichאיזה is a collaborationשיתוף פעולה betweenבֵּין labsמעבדות in fiveחָמֵשׁ or sixשֵׁשׁ differentשונה countriesמדינות.
192
570000
5000
שהוא שיתוף פעולה בין מעבדות מ-5 או 6 מדינות שונות.
10:00
Think of the Humanבן אנוש Genomeגנום Projectפּרוֹיֶקט as learningלְמִידָה what we'veיש לנו got in commonמשותף,
193
575000
4000
חישבו על פרוייקט הגנום האנושי כעל למידה של מה שמשותף לנו.
10:04
and the HapMapHapMap Projectפּרוֹיֶקט is tryingמנסה to understandמבין
194
579000
2000
פרוייקט ה-HapMap מנסה להבין
10:06
where there are differencesהבדלים betweenבֵּין differentשונה people.
195
581000
2000
איפה קיימים ההבדלים בין האנשים השונים.
10:08
Why do we careלְטַפֵּל about that?
196
583000
2000
למה זה מעניין אותנו?
10:10
Well, there are lots of reasonsסיבות.
197
585000
2000
מסיבות רבות.
10:12
The mostרוב pressingלחיצה one is that we want to understandמבין how some differencesהבדלים
198
587000
4000
הסיבה הבוערת ביותר היא שאנו רוצים להבין איך הבדלים מסויימים
10:16
make some people susceptibleרָגִישׁ to one diseaseמַחֲלָה -- type-סוּג-2 diabetesסוכרת, for exampleדוגמא --
199
591000
4000
גורמים לאנשים מסויימים להיות רגישים למחלה מסויימת - סוכרת סוג 2, לדוגמא,
10:20
and other differencesהבדלים make people more susceptibleרָגִישׁ to heartלֵב diseaseמַחֲלָה,
200
595000
5000
והבדלים אחרים גורמים לאנשים להיות יותר רגישים למחלות לב,
10:25
or strokeשבץ, or autismאוֹטִיזְם and so on.
201
600000
2000
או לשבץ, או לאוטיזם וכו'.
10:27
That's one bigגָדוֹל projectפּרוֹיֶקט.
202
602000
2000
זה פרוייקט גדול אחד.
10:29
There's a secondשְׁנִיָה bigגָדוֹל projectפּרוֹיֶקט,
203
604000
2000
פרוייקט גדול נוסף,
10:31
recentlyלאחרונה fundedממומן by the Wellcomeברוך הבא Trustאמון in this countryמדינה,
204
606000
2000
שנוסד לאחרונה ע"י וולקם טרסט במדינה הזאת,
10:33
involvingמעורבים very largeגָדוֹל studiesלימודים --
205
608000
2000
כולל מחקרים רחבי היקף --
10:35
thousandsאלפים of individualsיחידים, with eachכל אחד of eightשמונה differentשונה diseasesמחלות,
206
610000
3000
אלפי אנשים, הסובלים מאחת מ-8 מחלות שונות,
10:38
commonמשותף diseasesמחלות like type-סוּג-1 and type-סוּג-2 diabetesסוכרת, and coronaryכְּלִילִי heartלֵב diseaseמַחֲלָה,
207
613000
4000
מחלות שכיחות כמו סוכרת סוג 1 וסוג 2, ומחלת לב כלילית,
10:42
bipolarדו קוטבית diseaseמַחֲלָה and so on -- to try and understandמבין the geneticsגנטיקה.
208
617000
4000
הפרעה דו-קוטבית וכו'. מחקרים אלו מנסים להבין את הגנטיקה.
10:46
To try and understandמבין what it is about geneticגֵנֵטִי differencesהבדלים that causesגורם ל the diseasesמחלות.
209
621000
3000
הם מנסים להבין איזה רכיב בהבדלים הגנטיים גורם למחלות.
10:49
Why do we want to do that?
210
624000
2000
למה אנחנו רוצים לעשות זאת?
10:51
Because we understandמבין very little about mostרוב humanבן אנוש diseasesמחלות.
211
626000
3000
מכיוון שאנחנו מבינים מעט מאוד על רוב המחלות האנושיות.
10:54
We don't know what causesגורם ל them.
212
629000
2000
אנחנו לא יודעים מה גורם להן.
10:56
And if we can get in at the bottomתַחתִית and understandמבין the geneticsגנטיקה,
213
631000
2000
ואם נצליח לרדת לשורש העניין ולהבין את הגנטיקה,
10:58
we'llטוֹב have a windowחַלוֹן on the way the diseaseמַחֲלָה worksעובד,
214
633000
3000
יהיה לנו חלון הצצה לאופן בו המחלה פועלת,
11:01
and a wholeכֹּל newחָדָשׁ way about thinkingחושב about diseaseמַחֲלָה therapiesטיפולים
215
636000
2000
ודרך חדשה לגמרי לחשוב על טיפול במחלות
11:03
and preventativeמוֹנֵעַ treatmentיַחַס and so on.
216
638000
3000
ועל טיפול מונע וכו'.
11:06
So that's, as I said, the little diversionהַסָחָה on my mainרָאשִׁי love.
217
641000
3000
וכמו שאמרתי, זאת הייתה סטייה קטנה אל אהבתי העיקרית.
11:09
Back to some of the more mundaneאַרְצִי issuesנושאים of thinkingחושב about uncertaintyחוסר ודאות.
218
644000
5000
נחזור לכמה מהנושאים היותר ארציים של חשיבה על חוסר ודאות.
11:14
Here'sהנה anotherאַחֵר quizחִידוֹן for you --
219
649000
2000
הנה עוד חידה עבורכם --
11:16
now supposeלְהַנִיחַ we'veיש לנו got a testמִבְחָן for a diseaseמַחֲלָה
220
651000
2000
נניח שיש לנו בדיקה למחלה
11:18
whichאיזה isn't infallibleוַדָאִי, but it's prettyיפה good.
221
653000
2000
שלא חסינה מפני טעויות, אבל היא די טובה.
11:20
It getsמקבל it right 99 percentאָחוּז of the time.
222
655000
3000
התוצאות שלה תקינות 99 אחוז מהזמן.
11:23
And I take one of you, or I take someoneמִישֶׁהוּ off the streetרְחוֹב,
223
658000
3000
ואני לוקח אחד מכם, או מישהו מהרחוב,
11:26
and I testמִבְחָן them for the diseaseמַחֲלָה in questionשְׁאֵלָה.
224
661000
2000
ובודק אם הוא חולה במחלה הנידונה.
11:28
Let's supposeלְהַנִיחַ there's a testמִבְחָן for HIVHIV -- the virusוִירוּס that causesגורם ל AIDSאיידס --
225
663000
4000
נניח שזוהי בדיקה ל-HIV -- הוירוס שגורם לאיידס --
11:32
and the testמִבְחָן saysאומר the personאדם has the diseaseמַחֲלָה.
226
667000
3000
ושהבדיקה אומרת שהאדם חולה.
11:35
What's the chanceהִזדַמְנוּת that they do?
227
670000
3000
מה הסיכוי שהוא אכן חולה?
11:38
The testמִבְחָן getsמקבל it right 99 percentאָחוּז of the time.
228
673000
2000
תוצאות הבדיקה תקינות 99 אחוז מהזמן.
11:40
So a naturalטִבעִי answerתשובה is 99 percentאָחוּז.
229
675000
4000
לכן תשובה טבעית תהיה 99 אחוז.
11:44
Who likesאוהב that answerתשובה?
230
679000
2000
מי אוהב את התשובה הזאת?
11:46
Come on -- everyone'sשל כולם got to get involvedמְעוּרָב.
231
681000
1000
קדימה -- כולם צריכים לענות.
11:47
Don't think you don't trustאמון me anymoreיותר.
232
682000
2000
אל תחשבו שאתם כבר לא בוטחים בי.
11:49
(Laughterצחוק)
233
684000
1000
[צחוק]
11:50
Well, you're right to be a bitbit skepticalסקֶפְּטִי, because that's not the answerתשובה.
234
685000
3000
אתם צודקים אם אתם קצת ספקניים, כי זאת לא התשובה הנכונה.
11:53
That's what you mightאולי think.
235
688000
2000
זה מה שאתם אולי חושבים.
11:55
It's not the answerתשובה, and it's not because it's only partחֵלֶק of the storyכַּתָבָה.
236
690000
3000
זאת לא התשובה, אבל לא בגלל שזה רק חלק מהסיפור.
11:58
It actuallyלמעשה dependsתלוי on how commonמשותף or how rareנָדִיר the diseaseמַחֲלָה is.
237
693000
3000
למעשה, זה תלוי במידה בה המחלה היא שכיחה או נדירה.
12:01
So let me try and illustrateלהמחיש that.
238
696000
2000
אנסה להמחיש זאת עבורכם.
12:03
Here'sהנה a little caricatureקָרִיקָטוּרָה of a millionמִילִיוֹן individualsיחידים.
239
698000
4000
זוהי קריקטורה קטנה של מיליון אנשים.
12:07
So let's think about a diseaseמַחֲלָה that affectsמשפיע --
240
702000
3000
נחשוב על מחלה די נדירה,
12:10
it's prettyיפה rareנָדִיר, it affectsמשפיע one personאדם in 10,000.
241
705000
2000
שמשפיעה על אדם אחד מתוך 10,000.
12:12
Amongstבֵּין these millionמִילִיוֹן individualsיחידים, mostרוב of them are healthyבָּרִיא
242
707000
3000
בין מיליון האנשים האלה, רובם בריאים
12:15
and some of them will have the diseaseמַחֲלָה.
243
710000
2000
וחלקם יסבלו מהמחלה.
12:17
And in factעוּבדָה, if this is the prevalenceשְׁכִיחוּת of the diseaseמַחֲלָה,
244
712000
3000
למעשה, אם זוהי השכיחות של המחלה,
12:20
about 100 will have the diseaseמַחֲלָה and the restמנוחה won'tרָגִיל.
245
715000
3000
כ-100 יהיו חולים וכל השאר יהיו בריאים.
12:23
So now supposeלְהַנִיחַ we testמִבְחָן them all.
246
718000
2000
נניח שאנחנו בודקים את כולם.
12:25
What happensקורה?
247
720000
2000
מה יקרה?
12:27
Well, amongstבֵּין the 100 who do have the diseaseמַחֲלָה,
248
722000
2000
מבין ה-100 שחולים,
12:29
the testמִבְחָן will get it right 99 percentאָחוּז of the time, and 99 will testמִבְחָן positiveחִיוּבִי.
249
724000
5000
הבדיקה תתן תוצאה תקינה 99 אחוז מהזמן, ול-99 מהם התשובה תהיה חיובית.
12:34
Amongstבֵּין all these other people who don't have the diseaseמַחֲלָה,
250
729000
2000
מבין האחרים שלא חולים,
12:36
the testמִבְחָן will get it right 99 percentאָחוּז of the time.
251
731000
3000
הבדיקה תתן תשובה תקינה 99 אחוז מהזמן.
12:39
It'llזה יהיה only get it wrongלא בסדר one percentאָחוּז of the time.
252
734000
2000
היא תתן תוצאה שגויה רק באחוז אחד מהזמן.
12:41
But there are so manyרב of them that there'llיהיה be an enormousעֲנָקִי numberמספר of falseשֶׁקֶר positivesחיוביים.
253
736000
4000
אבל מכיוון שיש כל כך הרבה אנשים - יהיה מספר עצום של תשובות חיוביות מוטעות.
12:45
Put that anotherאַחֵר way --
254
740000
2000
ובניסוח אחר --
12:47
of all of them who testמִבְחָן positiveחִיוּבִי -- so here they are, the individualsיחידים involvedמְעוּרָב --
255
742000
5000
מבין כל אלה שמקבלים תשובה חיובית -- הנה הם --
12:52
lessפָּחוּת than one in 100 actuallyלמעשה have the diseaseמַחֲלָה.
256
747000
5000
פחות מאחד ממאה אכן חולה.
12:57
So even thoughאם כי we think the testמִבְחָן is accurateמְדוּיָק, the importantחָשׁוּב partחֵלֶק of the storyכַּתָבָה is
257
752000
4000
ולמרות שאנחנו חושבים שהבדיקה מדוייקת, החלק החשוב של הסיפור הוא
13:01
there's anotherאַחֵר bitbit of informationמֵידָע we need.
258
756000
3000
שישנם נתונים נוספים שאנו זקוקים להם.
13:04
Here'sהנה the keyמַפְתֵחַ intuitionאינטואיציה.
259
759000
2000
זוהי האינטואיציה המובילה.
13:07
What we have to do, onceפַּעַם we know the testמִבְחָן is positiveחִיוּבִי,
260
762000
3000
ברגע שאנחנו יודעים שהבדיקה חיובית,
13:10
is to weighלשקול up the plausibilityסבירות, or the likelihoodסְבִירוּת, of two competingמתחרים explanationsהסברים.
261
765000
6000
עלינו לשקול את הסבירות, או הסיכוי, של שני הסברים אפשריים.
13:16
Eachכל אחד of those explanationsהסברים has a likelyסָבִיר bitbit and an unlikelyלא סביר bitbit.
262
771000
3000
לכל אחד מההסברים יש חלק סביר וחלק לא סביר.
13:19
One explanationהֶסבֵּר is that the personאדם doesn't have the diseaseמַחֲלָה --
263
774000
3000
הסבר אחד הוא שהאדם לא חולה --
13:22
that's overwhelminglyבאופן גורף likelyסָבִיר, if you pickלִבחוֹר someoneמִישֶׁהוּ at randomאַקרַאִי --
264
777000
3000
זה סביר ביותר, אם בוחרים מישהו באופן אקראי --
13:25
but the testמִבְחָן getsמקבל it wrongלא בסדר, whichאיזה is unlikelyלא סביר.
265
780000
3000
אבל הבדיקה טועה - דבר לא סביר.
13:29
The other explanationהֶסבֵּר is that the personאדם does have the diseaseמַחֲלָה -- that's unlikelyלא סביר --
266
784000
3000
ההסבר השני הוא שהאדם חולה -- יש לכך סבירות נמוכה --
13:32
but the testמִבְחָן getsמקבל it right, whichאיזה is likelyסָבִיר.
267
787000
3000
והבדיקה תקינה - לכך יש סבירות גבוהה.
13:35
And the numberמספר we endסוֹף up with --
268
790000
2000
והמספר שאנחנו מקבלים בסופו של דבר --
13:37
that numberמספר whichאיזה is a little bitbit lessפָּחוּת than one in 100 --
269
792000
3000
המספר שקצת יותר קטן מ-1 ל-100 --
13:40
is to do with how likelyסָבִיר one of those explanationsהסברים is relativeקרוב משפחה to the other.
270
795000
6000
אומר מה הסבירות של הסבר אחד לעומת השני.
13:46
Eachכל אחד of them takenנלקח togetherיַחַד is unlikelyלא סביר.
271
801000
2000
לכל אחד מהם סבירות נמוכה.
13:49
Here'sהנה a more topicalאַקטוּאָלִי exampleדוגמא of exactlyבְּדִיוּק the sameאותו thing.
272
804000
3000
הנה דוגמא יותר אקטואלית לאותו הדבר.
13:52
Those of you in Britainבְּרִיטַנִיָה will know about what's becomeהפכו ratherבמקום a celebratedמְפוּרסָם caseמקרה
273
807000
4000
אם אתם מבריטניה אתם מכירים את המקרה המפורסם
13:56
of a womanאִשָׁה calledשקוראים לו Sallyסאלי Clarkקלארק, who had two babiesתינוקות who diedמת suddenlyפִּתְאוֹם.
274
811000
5000
של אשה בשם סאלי קלארק, שהיו לה 2 תינוקות שמתו בפתאומיות.
14:01
And initiallyבהתחלה, it was thought that they diedמת of what's knownידוע informallyבאופן לא רשמי as "cotעריסה deathמוות,"
275
816000
4000
בהתחלה, חשבו שהם מתו ממה שידוע באופן לא פורמלי כ"מוות בעריסה",
14:05
and more formallyרִשְׁמִית as "Suddenפִּתְאוֹמִי Infantתִינוֹק Deathמוות Syndromeתִסמוֹנֶת."
276
820000
3000
ובאופן יותר פורמלי כתסמונת המוות הפתאומי בינקות.
14:08
For variousשׁוֹנִים reasonsסיבות, she was laterיותר מאוחר chargedטעון with murderרֶצַח.
277
823000
2000
מסיבות שונות, היא הורשעה מאוחר יותר ברצח.
14:10
And at the trialמִשׁפָּט, her trialמִשׁפָּט, a very distinguishedנִכבָּד pediatricianרוֹפֵא יְלָדִים gaveנתן evidenceעֵדוּת
278
825000
4000
ובמשפט שלה, רופא ילדים מאוד מכובד העיד
14:14
that the chanceהִזדַמְנוּת of two cotעריסה deathsמוות, innocentחף מפשע deathsמוות, in a familyמִשׁפָּחָה like hersשֶׁלָה --
279
829000
5000
שהסיכוי לשני מקרים של מוות בעריסה, מקרי מוות תמימים, במשפחה כמו שלה,
14:19
whichאיזה was professionalמקצועי and non-smokingללא עישון -- was one in 73 millionמִילִיוֹן.
280
834000
6000
שהייתה מקצועית ולא מעשנת, הוא 1 ל-73 מיליון.
14:26
To cutגזירה a long storyכַּתָבָה shortקצר, she was convictedמוּרשָׁע at the time.
281
841000
3000
אם נקצר סיפור ארוך, היא הורשעה באותו הזמן.
14:29
Laterיותר מאוחר, and fairlyלְמַדַי recentlyלאחרונה, acquittedזוכה on appealעִרעוּר -- in factעוּבדָה, on the secondשְׁנִיָה appealעִרעוּר.
282
844000
5000
מאוחר יותר, ודי לאחרונה, היא זוכתה לאחר ערעור -- למעשה, לאחר הערעור השני שלה.
14:34
And just to setמַעֲרֶכֶת it in contextהֶקשֵׁר, you can imagineלדמיין how awfulנורא it is for someoneמִישֶׁהוּ
283
849000
4000
וכדי שתראו את כל התמונה, נסו לדמיין כמה זה נורא
14:38
to have lostאבד one childיֶלֶד, and then two, if they're innocentחף מפשע,
284
853000
3000
לאבד ילד אחד, ואז עוד אחד - כשאתה חף מפשע,
14:41
to be convictedמוּרשָׁע of murderingרְצִיחָה them.
285
856000
2000
ולהיות מורשע ברצח שלהם.
14:43
To be put throughדרך the stressלחץ of the trialמִשׁפָּט, convictedמוּרשָׁע of murderingרְצִיחָה them --
286
858000
2000
לעבור את כל המתח של המשפט, להיות מורשע ברצח,
14:45
and to spendלְבַלוֹת time in a women'sנשים prisonבית כלא, where all the other prisonersאסירים
287
860000
3000
ולהגיע לבית הסוהר לנשים, בו כל שאר האסירות
14:48
think you killedנהרג your childrenיְלָדִים -- is a really awfulנורא thing to happenלִקְרוֹת to someoneמִישֶׁהוּ.
288
863000
5000
חושבות שרצחת את הילדים שלך -- זה דבר נורא ביותר.
14:53
And it happenedקרה in largeגָדוֹל partחֵלֶק here because the expertמוּמחֶה got the statisticsסטָטִיסטִיקָה
289
868000
5000
וכאן, הוא התרחש בחלקו הגדול בגלל שתי טעויות חמורות
14:58
horriblyבצורה איומה wrongלא בסדר, in two differentשונה waysדרכים.
290
873000
3000
של המומחה בחישובי הסטטיסטיקה שלו.
15:01
So where did he get the one in 73 millionמִילִיוֹן numberמספר?
291
876000
4000
איך הוא הגיע למספר של 1 ל-73 מיליון?
15:05
He lookedהביט at some researchמחקר, whichאיזה said the chanceהִזדַמְנוּת of one cotעריסה deathמוות in a familyמִשׁפָּחָה
292
880000
3000
הוא מצא מחקר שאמר שהסיכוי למוות בעריסה אחד למשפחה
15:08
like Sallyסאלי Clark'sשל קלארק is about one in 8,500.
293
883000
5000
כמו זו של סאלי קלארק הוא כ-1 ל-8,500.
15:13
So he said, "I'll assumeלְהַנִיחַ that if you have one cotעריסה deathמוות in a familyמִשׁפָּחָה,
294
888000
4000
ואז הוא אמר, "אני מניח שאם יש מקרה אחד של מוות בעריסה במשפחה,
15:17
the chanceהִזדַמְנוּת of a secondשְׁנִיָה childיֶלֶד dyingגְסִיסָה from cotעריסה deathמוות aren'tלא changedהשתנה."
295
892000
4000
הסיכוי שילד נוסף ימות ממוות בעריסה לא משתנה."
15:21
So that's what statisticiansסטטיסטיקאים would call an assumptionהנחה of independenceעצמאות.
296
896000
3000
זוהי מה שסטטיסטיקאים מכנים הנחת אי-תלות.
15:24
It's like sayingפִּתגָם, "If you tossלִזרוֹק a coinמַטְבֵּעַ and get a headרֹאשׁ the first time,
297
899000
2000
זה כמו להגיד, "אם מטילים מטבע ומקבלים עץ,
15:26
that won'tרָגִיל affectלהשפיע the chanceהִזדַמְנוּת of gettingמקבל a headרֹאשׁ the secondשְׁנִיָה time."
298
901000
3000
זה לא משפיע על הסיכוי לקבלת עץ בפעם השנייה."
15:29
So if you tossלִזרוֹק a coinמַטְבֵּעַ twiceפעמיים, the chanceהִזדַמְנוּת of gettingמקבל a headרֹאשׁ twiceפעמיים are a halfחֲצִי --
299
904000
5000
ולכן אם מטילים מטבע פעמיים, הסיכוי לקבל עץ פעמיים הוא
15:34
that's the chanceהִזדַמְנוּת the first time -- timesפִּי a halfחֲצִי -- the chanceהִזדַמְנוּת a secondשְׁנִיָה time.
300
909000
3000
חצי - הסיכוי לעץ בפעם הראשונה, כפול חצי - הסיכוי לעץ בפעם השנייה.
15:37
So he said, "Here,
301
912000
2000
אז הוא אמר,
15:39
I'll assumeלְהַנִיחַ that these eventsאירועים are independentעצמאי.
302
914000
4000
"אני אניח ששני המאורעות הם בלתי תלויים.
15:43
When you multiplyלְהַכפִּיל 8,500 togetherיַחַד twiceפעמיים,
303
918000
2000
כשמכפילים 8,500 ב-8,500,
15:45
you get about 73 millionמִילִיוֹן."
304
920000
2000
מקבלים בערך 73 מיליון."
15:47
And noneאף אחד of this was statedנָקוּב to the courtבית משפט as an assumptionהנחה
305
922000
2000
וההנחה הזאת לא הוצגה בפני בית המשפט
15:49
or presentedמוצג to the juryחֶבֶר מוּשׁבַּעִים that way.
306
924000
2000
או בפני חבר המושבעים בצורה הזאת.
15:52
Unfortunatelyלצערי here -- and, really, regrettablyלרוע המזל --
307
927000
3000
לרוע המזל כאן, ובאופן מצער ביותר -
15:55
first of all, in a situationמַצָב like this you'dהיית רוצה have to verifyלְאַמֵת it empiricallyבאופן אמפירי.
308
930000
4000
קודם כל, במצב כזה צריך לוודא את הנתונים באופן אמפירי.
15:59
And secondlyשנית, it's palpablyבאופן מוחשי falseשֶׁקֶר.
309
934000
2000
ודבר שני, זה בפירוש לא נכון.
16:02
There are lots and lots of things that we don't know about suddenפִּתְאוֹמִי infantתִינוֹק deathsמוות.
310
937000
5000
יש המון דברים לא ידועים על מוות בעריסה.
16:07
It mightאולי well be that there are environmentalסְבִיבָתִי factorsגורמים that we're not awareמוּדָע of,
311
942000
3000
יתכן מאוד שקיימים גורמים סביבתיים שאנחנו לא מודעים להם,
16:10
and it's prettyיפה likelyסָבִיר to be the caseמקרה that there are
312
945000
2000
וישנה סבירות גבוהה שמעורבים בכך
16:12
geneticגֵנֵטִי factorsגורמים we're not awareמוּדָע of.
313
947000
2000
גורמים גנטיים שאנחנו לא מודעים לקיומם.
16:14
So if a familyמִשׁפָּחָה suffersסובל from one cotעריסה deathמוות, you'dהיית רוצה put them in a high-riskסיכון גבוה groupקְבוּצָה.
314
949000
3000
ולכן, אם במשפחה מתרחש מוות בעריסה, צריך להכניס אותה לקבוצה בסיכון גבוה.
16:17
They'veהם עשו זאת probablyכנראה got these environmentalסְבִיבָתִי riskלְהִסְתָכֵּן factorsגורמים
315
952000
2000
קרוב לודאי שיש לה גורמי סיכון סביבתיים
16:19
and/or geneticגֵנֵטִי riskלְהִסְתָכֵּן factorsגורמים we don't know about.
316
954000
3000
ו/או גורמי סיכון גנטיים שאנחנו לא מכירים.
16:22
And to argueלִטעוֹן, then, that the chanceהִזדַמְנוּת of a secondשְׁנִיָה deathמוות is as if you didn't know
317
957000
3000
ולכן, הטענה שהסיכוי למוות שני במשפחה זהה למקרה בו
16:25
that informationמֵידָע is really sillyטִפּשִׁי.
318
960000
3000
הנתונים לא ידועים - היא מטופשת ביותר.
16:28
It's worseרע יותר than sillyטִפּשִׁי -- it's really badרַע scienceמַדָע.
319
963000
4000
ויותר ממטופשת -- זהו מדע גרוע ביותר.
16:32
Nonethelessבְּכָל זֹאת, that's how it was presentedמוצג, and at trialמִשׁפָּט nobodyאף אחד even arguedטען it.
320
967000
5000
ובכל זאת, זו הדרך בה העניין הוצג, ובבית המשפט אף אחד לא ניסה לטעון נגדו.
16:37
That's the first problemבְּעָיָה.
321
972000
2000
זוהי הבעיה הראשונה.
16:39
The secondשְׁנִיָה problemבְּעָיָה is, what does the numberמספר of one in 73 millionמִילִיוֹן mean?
322
974000
4000
הבעיה השניה היא, מה המשמעות של 1 ל-73 מיליון?
16:43
So after Sallyסאלי Clarkקלארק was convictedמוּרשָׁע --
323
978000
2000
אחרי שסאלי קלארק הורשעה,
16:45
you can imagineלדמיין, it madeעָשׂוּי ratherבמקום a splashסֶנסַצִיָה in the pressללחוץ --
324
980000
4000
אתם יכולים לתאר לעצמכם שהיה רעש גדול בתקשורת.
16:49
one of the journalistsעיתונאים from one of Britain'sשל בריטניה more reputableמְכוּבָּד newspapersעיתונים wroteכתבתי that
325
984000
7000
אחד מהעיתונאים מאחד העיתונים המוערכים יותר בבריטניה כתב
16:56
what the expertמוּמחֶה had said was,
326
991000
2000
שמה שהמומחה אמר הוא,
16:58
"The chanceהִזדַמְנוּת that she was innocentחף מפשע was one in 73 millionמִילִיוֹן."
327
993000
5000
ש"הסיכוי שהיא חפה מפשע הוא 1 ל-73 מיליון."
17:03
Now, that's a logicalהגיוני errorשְׁגִיאָה.
328
998000
2000
זוהי טעות לוגית.
17:05
It's exactlyבְּדִיוּק the sameאותו logicalהגיוני errorשְׁגִיאָה as the logicalהגיוני errorשְׁגִיאָה of thinkingחושב that
329
1000000
3000
זוהי אותה טעות לוגית כמו הטעות לחשוב
17:08
after the diseaseמַחֲלָה testמִבְחָן, whichאיזה is 99 percentאָחוּז accurateמְדוּיָק,
330
1003000
2000
שאחרי הבדיקה למחלה, שמדוייקת ב-99 אחוז,
17:10
the chanceהִזדַמְנוּת of havingשיש the diseaseמַחֲלָה is 99 percentאָחוּז.
331
1005000
4000
הסיכוי לחלות הוא 99 אחוז.
17:14
In the diseaseמַחֲלָה exampleדוגמא, we had to bearדוב in mindאכפת two things,
332
1009000
4000
בדוגמא של המחלה, היינו צריכים לזכור שני דברים,
17:18
one of whichאיזה was the possibilityאפשרות that the testמִבְחָן got it right or not.
333
1013000
4000
הראשון הוא האפשרות שהבדיקה הייתה תקינה או לא תקינה.
17:22
And the other one was the chanceהִזדַמְנוּת, a prioriמראש, that the personאדם had the diseaseמַחֲלָה or not.
334
1017000
4000
והשני הוא הסיכוי, א-פריורי, שהאדם חולה או בריא.
17:26
It's exactlyבְּדִיוּק the sameאותו in this contextהֶקשֵׁר.
335
1021000
3000
זה בדיוק אותו דבר בהקשר הזה.
17:29
There are two things involvedמְעוּרָב -- two partsחלקים to the explanationהֶסבֵּר.
336
1024000
4000
יש שני דברים מעורבים -- שני חלקים להסבר.
17:33
We want to know how likelyסָבִיר, or relativelyיחסית how likelyסָבִיר, two differentשונה explanationsהסברים are.
337
1028000
4000
אנחנו רוצים לדעת מה הסיכוי, או מה הסיכוי היחסי של שני הסברים אפשריים.
17:37
One of them is that Sallyסאלי Clarkקלארק was innocentחף מפשע --
338
1032000
3000
ההסבר הראשון הוא שסאלי קלארק חפה מפשע --
17:40
whichאיזה is, a prioriמראש, overwhelminglyבאופן גורף likelyסָבִיר --
339
1035000
2000
שלו יש, א-פריורי, סיכוי גבוה מאוד -
17:42
mostרוב mothersאמהות don't killלַהֲרוֹג theirשֶׁלָהֶם childrenיְלָדִים.
340
1037000
3000
רוב האמהות לא הורגות את הילדים שלהן.
17:45
And the secondשְׁנִיָה partחֵלֶק of the explanationהֶסבֵּר
341
1040000
2000
החלק השני של ההסבר
17:47
is that she sufferedסבל an incrediblyבצורה מדהימה unlikelyלא סביר eventמִקרֶה.
342
1042000
3000
הוא שהיא סבלה ממקרה עם סבירות מאוד נמוכה.
17:50
Not as unlikelyלא סביר as one in 73 millionמִילִיוֹן, but nonethelessבְּכָל זֹאת ratherבמקום unlikelyלא סביר.
343
1045000
4000
לא סיכוי נמוך כמו 1 ל-73 מיליון, אבל בכל זאת בסבירות די נמוכה.
17:54
The other explanationהֶסבֵּר is that she was guiltyאָשֵׁם.
344
1049000
2000
ההסבר השני הוא שהיא אשמה.
17:56
Now, we probablyכנראה think a prioriמראש that's unlikelyלא סביר.
345
1051000
2000
קרוב לודאי שאנחנו חושבים מלכתחילה שזה לא סביר.
17:58
And we certainlyבְּהֶחלֵט should think in the contextהֶקשֵׁר of a criminalפְּלִילִי trialמִשׁפָּט
346
1053000
3000
ודאי שאנחנו צריכים לחשוב בהקשר של משפט פלילי
18:01
that that's unlikelyלא סביר, because of the presumptionחֲזָקָה of innocenceחפות מפשע.
347
1056000
3000
שיש לכך סיכוי נמוך, בגלל הנחת החפות מפשע.
18:04
And then if she were tryingמנסה to killלַהֲרוֹג the childrenיְלָדִים, she succeededהצליח.
348
1059000
4000
ושאם היא ניסתה להרוג את הילדים, היא הצליחה.
18:08
So the chanceהִזדַמְנוּת that she's innocentחף מפשע isn't one in 73 millionמִילִיוֹן.
349
1063000
4000
אם כך, הסיכוי שהיא חפה מפשע אינו 1 ל-73 מיליון.
18:12
We don't know what it is.
350
1067000
2000
אנחנו לא יודעים מה הוא.
18:14
It has to do with weighingשְׁקִילָה up the strengthכוח of the other evidenceעֵדוּת againstמול her
351
1069000
4000
צריך לקחת בחשבון את חוזק הראיות האחרות נגדה
18:18
and the statisticalסטָטִיסטִי evidenceעֵדוּת.
352
1073000
2000
ואת הראיות הסטטיסטיות.
18:20
We know the childrenיְלָדִים diedמת.
353
1075000
2000
אנחנו יודעים שהילדים מתו.
18:22
What mattersעניינים is how likelyסָבִיר or unlikelyלא סביר, relativeקרוב משפחה to eachכל אחד other,
354
1077000
4000
מה שחשוב זה מה הסבירות או אי-הסבירות של שני ההסברים
18:26
the two explanationsהסברים are.
355
1081000
2000
ביחס זה לזה.
18:28
And they're bothשניהם implausibleלֹא סָבִיר.
356
1083000
2000
ושניהם בלתי סבירים.
18:31
There's a situationמַצָב where errorsשגיאות in statisticsסטָטִיסטִיקָה had really profoundעָמוֹק
357
1086000
4000
זהו מקרה בו ההשלכות של טעויות בסטטיסטיקה
18:35
and really unfortunateחסר מזל consequencesהשלכות.
358
1090000
3000
חמורות ביותר ומצערות ביותר.
18:38
In factעוּבדָה, there are two other womenנשים who were convictedמוּרשָׁע on the basisבָּסִיס of the
359
1093000
2000
למעשה, שתי נשים נוספות הורשעו על בסיס
18:40
evidenceעֵדוּת of this pediatricianרוֹפֵא יְלָדִים, who have subsequentlyלְאַחַר מִכֵּן been releasedמְשׁוּחרָר on appealעִרעוּר.
360
1095000
4000
העדות של רופא הילדים הזה, ושוחררו לאחר ערעור.
18:44
Manyרב casesבמקרים were reviewedנבדקה.
361
1099000
2000
מקרים רבים נבחנו מחדש.
18:46
And it's particularlyבִּמְיוּחָד topicalאַקטוּאָלִי because he's currentlyכַּיוֹם facingמוּל a disreputeשֵׁם רַע chargeלחייב
362
1101000
4000
וזה מאוד אקטואלי כי עכשיו הוא עומד בפני תביעת הוצאת שם רע
18:50
at Britain'sשל בריטניה Generalכללי Medicalרְפוּאִי Councilהמועצה.
363
1105000
3000
במועצה הרפואית הכללית בבריטניה.
18:53
So just to concludeלְהַסִיק -- what are the take-homeלקחת הביתה messagesהודעות from this?
364
1108000
4000
וכדי לסכם - מה המסר שתקחו אתכם הביתה?
18:57
Well, we know that randomnessאקראיות and uncertaintyחוסר ודאות and chanceהִזדַמְנוּת
365
1112000
4000
אנחנו יודעים שאקראיות, וחוסר ודאות, וסיכוי
19:01
are very much a partחֵלֶק of our everydayכל יום life.
366
1116000
3000
הם חלק בלתי נפרד מחיי היום יום שלנו.
19:04
It's alsoגַם trueנָכוֹן -- and, althoughלמרות ש, you, as a collectiveקולקטיבי, are very specialמיוחד in manyרב waysדרכים,
367
1119000
5000
בנוסף, למרות שאתם, ככלל, מיוחדים מאוד בדרכים רבות,
19:09
you're completelyלַחֲלוּטִין typicalאופייני in not gettingמקבל the examplesדוגמאות I gaveנתן right.
368
1124000
4000
אתם אופייניים מאוד שלא פתרתם את הדוגמאות שלי בצורה נכונה.
19:13
It's very well documentedמְתוֹעָד that people get things wrongלא בסדר.
369
1128000
3000
ישנו תעוד רחב היקף לכך שאנשים טועים.
19:16
They make errorsשגיאות of logicהִגָיוֹן in reasoningהַנמָקָה with uncertaintyחוסר ודאות.
370
1131000
3000
הם מבצעים שגיאות לוגיות בזמן הסקת מסקנות בתנאי חוסר ודאות.
19:20
We can copeלהתמודד with the subtletiesדקויות of languageשפה brilliantlyמבריק --
371
1135000
2000
אנחנו יכולים להתמודד עם הדקויות של השפה באופן מזהיר --
19:22
and there are interestingמעניין evolutionaryאֵבוֹלוּצִיוֹנִי questionsשאלות about how we got here.
372
1137000
3000
וישנן שאלות אבולוציוניות מעניינות על איך הגענו לכאן.
19:25
We are not good at reasoningהַנמָקָה with uncertaintyחוסר ודאות.
373
1140000
3000
אנחנו לא מוצלחים בהסקת מסקנות בתנאי חוסר ודאות.
19:28
That's an issueנושא in our everydayכל יום livesחיים.
374
1143000
2000
זהו נושא שקיים בחיי היום יום שלנו.
19:30
As you've heardשמע from manyרב of the talksשיחות, statisticsסטָטִיסטִיקָה underpinsתחתונים an enormousעֲנָקִי amountכמות
375
1145000
3000
כפי ששמעתם בהרצאות רבות, הסטטיסטיקה מהווה בסיס לכמות עצומה
19:33
of researchמחקר in scienceמַדָע -- in socialחֶברָתִי scienceמַדָע, in medicineתרופה
376
1148000
3000
של מחקרים מדעיים -- במדעי החברה, ברפואה,
19:36
and indeedאכן, quiteדַי a lot of industryתַעֲשִׂיָה.
377
1151000
2000
ולמעשה, בתחומים תעשייתיים רבים.
19:38
All of qualityאיכות controlלִשְׁלוֹט, whichאיזה has had a majorגדול impactפְּגִיעָה on industrialתַעֲשִׂיָתִי processingמעבד,
378
1153000
4000
כל בקרת האיכות, שהיא בעלת השפעה מכרעת על תהליכים תעשייתיים,
19:42
is underpinnedתחתי by statisticsסטָטִיסטִיקָה.
379
1157000
2000
מבוססת על סטטיסטיקה.
19:44
It's something we're badרַע at doing.
380
1159000
2000
וזה משהו שאנחנו גרועים בביצוע שלו.
19:46
At the very leastהכי פחות, we should recognizeלזהות that, and we tendנוטה not to.
381
1161000
3000
לכל הפחות, עלינו להכיר בכך, ואנחנו נוטים לא לעשות זאת.
19:49
To go back to the legalמשפטי contextהֶקשֵׁר, at the Sallyסאלי Clarkקלארק trialמִשׁפָּט
382
1164000
4000
ואם נחזור להקשר המשפטי, במשפט של סאלי קלארק
19:53
all of the lawyersעורכי דין just acceptedמְקוּבָּל what the expertמוּמחֶה said.
383
1168000
4000
כל עורכי הדין פשוט קיבלו את מה שהמומחה אמר.
19:57
So if a pediatricianרוֹפֵא יְלָדִים had come out and said to a juryחֶבֶר מוּשׁבַּעִים,
384
1172000
2000
וכך, אם רופא ילדים היה אומר לחבר המושבעים,
19:59
"I know how to buildלִבנוֹת bridgesגשרים. I've builtבנוי one down the roadכְּבִישׁ.
385
1174000
3000
"אני יודע לבנות גשרים. בניתי אחד במורד הדרך.
20:02
Please driveנהיגה your carאוטו home over it,"
386
1177000
2000
אני מבקש שתסעו עליו בדרככם הביתה,"
20:04
they would have said, "Well, pediatriciansרופאי ילדים don't know how to buildלִבנוֹת bridgesגשרים.
387
1179000
2000
הם היו אומרים, "ובכן, רופאי ילדים לא יודעים לבנות גשרים.
20:06
That's what engineersמהנדסים do."
388
1181000
2000
זהו תפקידם של המהנדסים."
20:08
On the other handיד, he cameבא out and effectivelyביעילות said, or impliedמְרוּמָז,
389
1183000
3000
ומצד שני, השתמע מדבריו שהוא אומר,
20:11
"I know how to reasonסיבה with uncertaintyחוסר ודאות. I know how to do statisticsסטָטִיסטִיקָה."
390
1186000
3000
"אני יודע איך להסיק מסקנות בתנאי חוסר ודאות. אני יודע איך עושים סטטיסטיקה.
20:14
And everyoneכל אחד said, "Well, that's fine. He's an expertמוּמחֶה."
391
1189000
3000
וכולם אמרו, "בסדר גמור. הוא מומחה."
20:17
So we need to understandמבין where our competenceיְכוֹלֶת is and isn't.
392
1192000
3000
אנחנו חייבים להבין באיזה תחומים יש לנו יכולת ובאיזה לא.
20:20
Exactlyבְּדִיוּק the sameאותו kindsמיני of issuesנושאים aroseהתעוררה in the earlyמוקדם daysימים of DNAדנ"א profilingפרופיל,
393
1195000
4000
אותם נושאים התעוררו בתחילת הדרך של שימוש בפרופילים גנטיים,
20:24
when scientistsמדענים, and lawyersעורכי דין and in some casesבמקרים judgesשופטים,
394
1199000
4000
כאשר מדענים ועורכי דין ובמקרים מסויימים שופטים,
20:28
routinelyבאופן שגרתי misrepresentedמייצגת evidenceעֵדוּת.
395
1203000
3000
נהגו להציג ראיות בצורה מסולפת.
20:32
Usuallyבְּדֶרֶך כְּלַל -- one hopesמקווה -- innocentlyבתמימות, but misrepresentedמייצגת evidenceעֵדוּת.
396
1207000
3000
בדרך כלל, יש לקוות, בתום לב, אבל הראיות הוצגו בצורה מסולפת.
20:35
Forensicמִשׁפָּטִי scientistsמדענים said, "The chanceהִזדַמְנוּת that this guy'sשל הבחור innocentחף מפשע is one in threeשְׁלוֹשָׁה millionמִילִיוֹן."
397
1210000
5000
מדעני זיהוי פלילי אמרו, "הסיכוי שהבחור הזה חף מפשע הוא 1 ל-3 מיליון.
20:40
Even if you believe the numberמספר, just like the 73 millionמִילִיוֹן to one,
398
1215000
2000
וגם אם אתם מאמינים למספר הזה, כמו ל-73 מיליון ל-1,
20:42
that's not what it meantהתכוון.
399
1217000
2000
זאת לא המשמעות שלו.
20:44
And there have been celebratedמְפוּרסָם appealעִרעוּר casesבמקרים
400
1219000
2000
והיו ערעורים מפורסמים
20:46
in Britainבְּרִיטַנִיָה and elsewhereבְּמָקוֹם אַחֵר because of that.
401
1221000
2000
בבריטניה ובמקומות אחרים מהסיבה הזאת.
20:48
And just to finishסִיוּם in the contextהֶקשֵׁר of the legalמשפטי systemמערכת.
402
1223000
3000
וכדי לסיים בהקשר של המערכת המשפטית.
20:51
It's all very well to say, "Let's do our bestהטוב ביותר to presentמתנה the evidenceעֵדוּת."
403
1226000
4000
זה יפה מאוד להגיד, "נעשה את מיטב יכולתנו בהצגת הראיות."
20:55
But more and more, in casesבמקרים of DNAדנ"א profilingפרופיל -- this is anotherאַחֵר one --
404
1230000
3000
אבל יותר ויותר, במקרים של בניית פרופילים גנטיים -- זה דבר נוסף --
20:58
we expectלְצַפּוֹת juriesחבר מושבעים, who are ordinaryרגיל people --
405
1233000
3000
אנחנו מצפים מחבר המושבעים, שהם אנשים רגילים --
21:01
and it's documentedמְתוֹעָד they're very badרַע at this --
406
1236000
2000
וזה מתועד שהם מאוד גרועים בכך --
21:03
we expectלְצַפּוֹת juriesחבר מושבעים to be ableיכול to copeלהתמודד with the sortsמיני of reasoningהַנמָקָה that goesהולך on.
407
1238000
4000
אנחנו מצפים שחבר המושבעים יהיה מסוגל להתמודד עם תהליך הסקת המסקנות שכרוך בכך.
21:07
In other spheresספירות of life, if people arguedטען -- well, exceptמלבד possiblyיִתָכֵן for politicsפּוֹלִיטִיקָה --
408
1242000
5000
בתחומי חיים אחרים, אם אנשים היו טוענים -- חוץ אולי מבפוליטיקה,
21:12
but in other spheresספירות of life, if people arguedטען illogicallyבְּחוֹסֶר הִגָיוֹן,
409
1247000
2000
אבל בתחומי חיים אחרים, אם אנשים היו טוענים בחוסר הגיון,
21:14
we'dלהתחתן say that's not a good thing.
410
1249000
2000
היינו אומרים שזה דבר גרוע.
21:16
We sortסוג of expectלְצַפּוֹת it of politiciansפוליטיקאים and don't hopeלְקַווֹת for much more.
411
1251000
4000
אולי אנחנו מצפים לכך מפוליטיקאים - הציפיות שלנו מהם לא גבוהות.
21:20
In the caseמקרה of uncertaintyחוסר ודאות, we get it wrongלא בסדר all the time --
412
1255000
3000
במקרים של חוסר ודאות, אנחנו טועים כל הזמן --
21:23
and at the very leastהכי פחות, we should be awareמוּדָע of that,
413
1258000
2000
ולכל הפחות, אנחנו צריכים להיות מודעים לכך.
21:25
and ideallyבאופן אידיאלי, we mightאולי try and do something about it.
414
1260000
2000
ובאופן אידיאלי, גם לנסות לעשות משהו בקשר לכך.
21:27
Thanksתודה very much.
415
1262000
1000
תודה רבה.
Translated by Yifat Adler
Reviewed by ran amitay

▲Back to top

ABOUT THE SPEAKER
Peter Donnelly - Mathematician; statistician
Peter Donnelly is an expert in probability theory who applies statistical methods to genetic data -- spurring advances in disease treatment and insight on our evolution. He's also an expert on DNA analysis, and an advocate for sensible statistical analysis in the courtroom.

Why you should listen

Peter Donnelly applies statistical methods to real-world problems, ranging from DNA analysis (for criminal trials), to the treatment of genetic disorders. A mathematician who collaborates with biologists, he specializes in applying probability and statistics to the field of genetics, in hopes of shedding light on evolutionary history and the structure of the human genome.

The Australian-born, Oxford-based mathematician is best known for his work in molecular evolution (tracing the roots of human existence to their earliest origins using the mutation rates of mitochondrial DNA). He studies genetic distributions in living populations to trace human evolutionary history -- an approach that informs research in evolutionary biology, as well as medical treatment for genetic disorders. Donnelly is a key player in the International HapMap Project, an ongoing international effort to model human genetic variation and pinpoint the genes responsible for specific aspects of health and disease; its implications for disease prevention and treatment are vast.

He's also a leading expert on DNA analysis and the use of forensic science in criminal trials; he's an outspoken advocate for bringing sensible statistical analysis into the courtroom. Donnelly leads Oxford University's Mathematical Genetics Group, which conducts research in genetic modeling, human evolutionary history, and forensic DNA profiling. He is also serves as Director of the Wellcome Trust Centre for Human Genetics at Oxford University, which explores the genetic relationships to disease and illness. 

More profile about the speaker
Peter Donnelly | Speaker | TED.com