ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com
TEDGlobal 2011

Ben Goldacre: Battling bad science

בן גולדייקר: להילחם במדע גרוע

Filmed:
2,713,579 views

כל יום ישנם דיווחים בחדשות על המלצות רפואיות חדשות, אבל איך אפשר לדעת אם הן נכונות? בן גולדייקר - רופא ואפידמיולוג - מראה לנו, במהירות גבוהה, את הדרכים בהן ניתן לעוות עדויות, החל מטענות תזונתיות וכלה בתכסיסים המתוחכמים של חברות התרופות.
- Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks. Full bio

Double-click the English transcript below to play the video.

00:15
So I'm a doctorדוֹקטוֹר, but I kindסוג of slippedהחליק sidewaysהַצִידָה into researchמחקר,
0
0
3000
אני רופא, אבל איך שהוא גלשתי למחקר,
00:18
and now I'm an epidemiologistאפידמיולוג.
1
3000
2000
ועכשיו אני אפידמיולוג.
00:20
And nobodyאף אחד really knowsיודע what epidemiologyאֶפִּידֶמִיוֹלוֹגִיָה is.
2
5000
2000
ואף אחד לא יודע מה זה אפידמיולוגיה.
00:22
Epidemiologyאֶפִּידֶמִיוֹלוֹגִיָה is the scienceמַדָע of how we know in the realאמיתי worldעוֹלָם
3
7000
3000
אפידמיולוגיה היא המדע של איך יודעים בעולם האמיתי
00:25
if something is good for you or badרַע for you.
4
10000
2000
אם משהו טוב או רע עבורכם.
00:27
And it's bestהטוב ביותר understoodהבין throughדרך exampleדוגמא
5
12000
2000
והכי קל להבין אותו
00:29
as the scienceמַדָע of those crazyמְטוּרָף, wackyמטורף newspaperעיתון headlinesכותרות.
6
14000
5000
בתור המדע של הכותרות המוזרות בעיתון.
00:34
And these are just some of the examplesדוגמאות.
7
19000
2000
והנה רק כמה דוגמאות.
00:36
These are from the Dailyיום יומי Mailדוֹאַר. Everyכֹּל countryמדינה in the worldעוֹלָם has a newspaperעיתון like this.
8
21000
3000
אלה כולן מהדיילי מייל. לכל מדינה יש עיתון כזה.
00:39
It has this bizarreמוּזָר, ongoingמתמשך philosophicalפילוסופית projectפּרוֹיֶקט
9
24000
3000
יש להם פרוייקט מוזר ומתמשך
00:42
of dividingחלוקה all the inanimateדוֹמֵם objectsחפצים in the worldעוֹלָם
10
27000
2000
בו הם מחלקים את כל החפצים בעולם
00:44
into the onesיחידות that eitherאוֹ causeגורם or preventלִמְנוֹעַ cancerמחלת הסרטן.
11
29000
3000
לכאלה שגורמים סרטן או מונעים אותו.
00:47
So here are some of the things they said causeגורם cancerמחלת הסרטן recentlyלאחרונה:
12
32000
2000
אז הנה כמה מהדברים שלטענתם גורמים לסרטן:
00:49
divorceלְהִתְגַרֵשׁ, Wi-Fiוויי - פיי, toiletriesמוצרי רחצה and coffeeקָפֶה.
13
34000
2000
גירושין, Wi-Fi, קוסמטיקה וקפה.
00:51
Here are some of the things they say preventsמונע cancerמחלת הסרטן:
14
36000
2000
ואלה לטענתם מונעים סרטן:
00:53
crustsקרום, redאָדוֹם pepperפלפל, licoriceשׁוּשׁ and coffeeקָפֶה.
15
38000
2000
פלפל אדום, ליקריץ, קפה והקשה של הלחם.
00:55
So alreadyכְּבָר you can see there are contradictionsסתירות.
16
40000
2000
אז כבר אפשר לראות כמה סתירות.
00:57
Coffeeקפה bothשניהם causesגורם ל and preventsמונע cancerמחלת הסרטן.
17
42000
2000
קפה גם גורם וגם מונע סרטן.
00:59
And as you startהַתחָלָה to readלקרוא on, you can see
18
44000
2000
וכשתקראו תראו שאולי
01:01
that maybe there's some kindסוג of politicalפּוֹלִיטִי valenceערכיות behindמֵאָחוֹר some of this.
19
46000
3000
יש לכך מין רקע פוליטי.
01:04
So for womenנשים, houseworkעבודות בית preventsמונע breastשד cancerמחלת הסרטן,
20
49000
2000
כי לנשים, עבודות בית מונעות סרטן,
01:06
but for menגברים, shoppingקניות could make you impotentעָקָר.
21
51000
3000
אבל לגברים, קניות יכולות לגרום לאימפוטנציה.
01:09
So we know that we need to startהַתחָלָה
22
54000
3000
אז אנחנו יודעים שצריך להתחיל
01:12
unpickingמבטל the scienceמַדָע behindמֵאָחוֹר this.
23
57000
3000
להתיר את המדע שמאחורי זה.
01:15
And what I hopeלְקַווֹת to showלְהַצִיג
24
60000
2000
ומה שאני מקווה להראות
01:17
is that unpickingמבטל dodgyמְסוּכָּן claimsטוען,
25
62000
2000
הוא שהתרה של טענות בעיתיות
01:19
unpickingמבטל the evidenceעֵדוּת behindמֵאָחוֹר dodgyמְסוּכָּן claimsטוען,
26
64000
2000
התרה של הראיות העומדות מאחורי הטענות הבעיתיות,
01:21
isn't a kindסוג of nastyמַגְעִיל carpingקרפינג activityפעילות;
27
66000
3000
היא לא פעילות קנטרנית,
01:24
it's sociallyחברתית usefulמוֹעִיל,
28
69000
2000
אלא בעלת ערך חברתי שימושי,
01:26
but it's alsoגַם an extremelyמְאוֹד valuableבעל ערך
29
71000
2000
אבל גם בעלת ערך רב
01:28
explanatoryמַסבִּיר toolכְּלִי.
30
73000
2000
ככלי מסביר.
01:30
Because realאמיתי scienceמַדָע is all about
31
75000
2000
כי מדע אמיתי עוסק
01:32
criticallyבאופן ביקורתי appraisingאומדן the evidenceעֵדוּת for somebodyמִישֶׁהוּ else'sאחר positionעמדה.
32
77000
2000
בהערכה ביקורתית של ההוכחות לטענתו של אדם אחר.
01:34
That's what happensקורה in academicאקדמי journalsכתבי עת.
33
79000
2000
זה מה שקורה בכתבי עת אקדמיים.
01:36
That's what happensקורה at academicאקדמי conferencesכנסים.
34
81000
2000
זה מה שקורה בכנסים אקדמיים.
01:38
The Q&A sessionמוֹשָׁב after a post-opלאחר ניתוח presentsמתנות dataנתונים
35
83000
2000
זמן השאלות אחרי שמישהו מציג נתונים,
01:40
is oftenלעתים קרובות a bloodדָם bathמֶרחָץ.
36
85000
2000
דומה למרחץ דמים.
01:42
And nobodyאף אחד mindsמוחות that. We activelyבאופן פעיל welcomeברוך הבא it.
37
87000
2000
ולאף אחד לא אכפת. אנחנו מברכים על זה.
01:44
It's like a consentingהסכמה intellectualאִינטֶלֶקְטוּאַלִי S&M activityפעילות.
38
89000
3000
זה כמו פעילות סאדו-מאזו אינטלקטואלית מתוך בחירה.
01:47
So what I'm going to showלְהַצִיג you
39
92000
2000
אז מה שאני אראה לכם
01:49
is all of the mainרָאשִׁי things,
40
94000
2000
זה את כל הדברים העיקריים,
01:51
all of the mainרָאשִׁי featuresמאפיינים of my disciplineמשמעת --
41
96000
2000
כל המאפיינים המרכזיים של התחום שלי -
01:53
evidence-basedהמבוססת על ראיות medicineתרופה.
42
98000
2000
רפואה מבוססת ראיות.
01:55
And I will talk you throughדרך all of these
43
100000
2000
ואני אעבור איתכם עליהם
01:57
and demonstrateלְהַפְגִין how they work,
44
102000
2000
ואדגים לכם איך הם פועלים,
01:59
exclusivelyבאופן בלעדי usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני examplesדוגמאות of people gettingמקבל stuffדברים wrongלא בסדר.
45
104000
3000
בעזרת דוגמאות בהן אנשים טועים.
02:02
So we'llטוֹב startהַתחָלָה with the absoluteמוּחלָט weakestהחלש ביותר formטופס of evidenceעֵדוּת knownידוע to man,
46
107000
3000
אז נתחיל עם ההוכחה החלשה ביותר,
02:05
and that is authorityרָשׁוּת.
47
110000
2000
וזאת הסמכות.
02:07
In scienceמַדָע, we don't careלְטַפֵּל how manyרב lettersאותיות you have after your nameשֵׁם.
48
112000
3000
במדע לא אכפת לנו כמה תארים יש לכם.
02:10
In scienceמַדָע, we want to know what your reasonsסיבות are for believingלהאמין something.
49
115000
3000
במדע אנחנו רוצים לדעת למה אתם מאמינים במשהו.
02:13
How do you know that something is good for us
50
118000
2000
איך אתם יודעים שמשהו טוב עבורנו
02:15
or badרַע for us?
51
120000
2000
או רע עבורנו?
02:17
But we're alsoגַם unimpressedלא מתרשם by authorityרָשׁוּת,
52
122000
2000
אבל אנחנו לא מתרשמים מסמכות,
02:19
because it's so easyקַל to contriveלִהַמצִיא.
53
124000
2000
כי כ"כ קל לזייף אותה.
02:21
This is somebodyמִישֶׁהוּ calledשקוראים לו Drד"ר. Gillianג'יליאן McKeithמקית PhPh.D,
54
126000
2000
הנה מישהי שנקראת ד"ר ג'יליאן מק'קית Ph.D (דוקטורט)
02:23
or, to give her fullמלא medicalרְפוּאִי titleכותרת, Gillianג'יליאן McKeithמקית.
55
128000
3000
או בתוארה הרפואי המלא: גי'ליאן מק'קית.
02:26
(Laughterצחוק)
56
131000
3000
(צחוק)
02:29
Again, everyכֹּל countryמדינה has somebodyמִישֶׁהוּ like this.
57
134000
2000
בכל מדינה יש מישהו כמוה.
02:31
She is our TVטֵלֶוִיזִיָה dietדִיאֵטָה guruגורו.
58
136000
2000
היא גורו הדיאטות אצלנו בטלוויזיה.
02:33
She has massiveמַסִיבִי fiveחָמֵשׁ seriesסִדרָה of prime-timeזמן שיא televisionטֵלֶוִיזִיָה,
59
138000
3000
יש לה חמש סדרות בפריים-טיים בטלוויזיה,
02:36
givingמַתָן out very lavishמפואר and exoticאקזוטי healthבְּרִיאוּת adviceעֵצָה.
60
141000
3000
בהן היא נותנת עצות רפואיות אקזוטיות ושופעות.
02:39
She, it turnsפונה out, has a non-accreditedלא מוכר correspondenceהִתכַּתְבוּת courseקוּרס PhPh.D.
61
144000
3000
מתברר שאת תואר ה Ph.D היא קיבלה מקורס בהתכתבות
02:42
from somewhereאי שם in Americaאמריקה.
62
147000
2000
שעשתה במכללה ללא הכרה פורמלית בארה"ב.
02:44
She alsoגַם boastsמתג that she's a certifiedמוּסמָך professionalמקצועי memberחבר
63
149000
2000
היא גם מתפארת בכך שהיא חברה רשומה
02:46
of the Americanאֲמֶרִיקָאִי Associationאִרגוּן of Nutritionalתזונתיים Consultantsיועצים,
64
151000
2000
באיגוד האמריקאי של יועצים תזונתיים,
02:48
whichאיזה soundsקולות very glamorousמַקסִים וּמְפוּאָר and excitingמְרַגֵשׁ.
65
153000
2000
שנשמע מרגש וזוהר.
02:50
You get a certificateתְעוּדָה and everything.
66
155000
2000
מקבלים תעודה והכל.
02:52
This one belongsשייך to my deadמֵת catחתול Hettiהאטי. She was a horribleמַחרִיד catחתול.
67
157000
2000
התעודה הזו שייכת לחתולה שלי הטי, ז"ל. היא היתה חתולה נוראית.
02:54
You just go to the websiteאתר אינטרנט, fillלמלא out the formטופס,
68
159000
2000
רק צריך להיכנס לאתר, למלא טופס,
02:56
give them $60, and it arrivesמגיע in the postהודעה.
69
161000
2000
לשלם 60$, והיא מגיעה בדואר.
02:58
Now that's not the only reasonסיבה that we think this personאדם is an idiotאִידיוֹט.
70
163000
2000
עכשיו, זו לא הסיבה היחידה שבגללה אני חושב שהיא אידיוטית.
03:00
She alsoגַם goesהולך and saysאומר things like,
71
165000
2000
היא גם אומרת דברים כמו
03:02
you should eatלאכול lots of darkאפל greenירוק leavesמשאיר,
72
167000
2000
אתם צריכים לאכול הרבה עלים ירוקים כהים,
03:04
because they containלְהַכִיל lots of chlorophyllכלורופיל, and that will really oxygenateחמצן your bloodדָם.
73
169000
2000
כי יש בהם הרבה כלורופיל שיחמצן את הדם שלכם.
03:06
And anybodyמִישֶׁהוּ who'sמי זה doneבוצע schoolבית ספר biologyביולוגיה remembersזוכר
74
171000
2000
וכל מי שלמד קצת ביולוגיה בבי"ס זוכר
03:08
that chlorophyllכלורופיל and chloroplastsכלורופלסטים
75
173000
2000
שכלורופיל וכלורופלסטים
03:10
only make oxygenחַמצָן in sunlightאוֹר שֶׁמֶשׁ,
76
175000
2000
יכולים לייצר חמצן רק באור,
03:12
and it's quiteדַי darkאפל in your bowelsמעיים after you've eatenאָכוּל spinachתרד.
77
177000
3000
ודי חשוך במעיים שלכם אחרי שאכלתם תרד.
03:15
Nextהַבָּא, we need properתָקִין scienceמַדָע, properתָקִין evidenceעֵדוּת.
78
180000
3000
הלאה. אנחנו זקוקים למדע טוב, הוכחות טובות.
03:18
So, "Redאָדוֹם wineיַיִן can help preventלִמְנוֹעַ breastשד cancerמחלת הסרטן."
79
183000
2000
אז "יין אדום יכול לסייע במניעת סרטן השד."
03:20
This is a headlineכּוֹתֶרֶת from the Dailyיום יומי Telegraphטֵלֶגרָף in the U.K.
80
185000
2000
זוהי כותרת מהדיילי טלגרף הבריטי,
03:22
"A glassזכוכית of redאָדוֹם wineיַיִן a day could help preventלִמְנוֹעַ breastשד cancerמחלת הסרטן."
81
187000
3000
"כוס יין אדום ביום יכולה לסייע במניעת סרטן השד."
03:25
So you go and find this paperעיתון, and what you find
82
190000
2000
אז אתם מחפשים את המאמר ומה שמוצאים
03:27
is it is a realאמיתי pieceלְחַבֵּר of scienceמַדָע.
83
192000
2000
זה שזה מדע רציני.
03:29
It is a descriptionתיאור of the changesשינויים in one enzymeאֶנזִים
84
194000
3000
זה תיאור של השינויים באנזים אחד
03:32
when you dripטפטוף a chemicalכִּימִי extractedחילוץ from some redאָדוֹם grapeעַנָב skinעור
85
197000
3000
שמתרחשים כששמים כימיקל שמוצה מקליפת עינב אדום
03:35
ontoעַל גַבֵּי some cancerמחלת הסרטן cellsתאים
86
200000
2000
על תאים סרטניים
03:37
in a dishצַלַחַת on a benchסַפְסָל in a laboratoryמַעבָּדָה somewhereאי שם.
87
202000
3000
בצלחת, על שולחן עבודה, במעבדה כלשהי.
03:40
And that's a really usefulמוֹעִיל thing to describeלְתַאֵר
88
205000
2000
וזה תיאור מאוד שימושי
03:42
in a scientificמַדָעִי paperעיתון,
89
207000
2000
בכתב עת מדעי,
03:44
but on the questionשְׁאֵלָה of your ownשֶׁלוֹ personalאישי riskלְהִסְתָכֵּן
90
209000
2000
אבל זה לא אומר לכם כלום
03:46
of gettingמקבל breastשד cancerמחלת הסרטן if you drinkלִשְׁתוֹת redאָדוֹם wineיַיִן,
91
211000
2000
על הסיכון האישי שלכם ללקות בסרטן השד
03:48
it tellsאומר you absolutelyבהחלט buggerסְדוֹמַאִי all.
92
213000
2000
אם תשתו יין אדום.
03:50
Actuallyבעצם, it turnsפונה out that your riskלְהִסְתָכֵּן of breastשד cancerמחלת הסרטן
93
215000
2000
למעשה, מתברר שהסיכון לסרטן השד
03:52
actuallyלמעשה increasesמגביר slightlyמְעַט
94
217000
2000
עולה מעט
03:54
with everyכֹּל amountכמות of alcoholכּוֹהֶל that you drinkלִשְׁתוֹת.
95
219000
2000
עם כל מנת אלכוהול שתשתו.
03:56
So what we want is studiesלימודים in realאמיתי humanבן אנוש people.
96
221000
4000
אז אנחנו מחפשים מחקרים בבני אדם אמיתיים.
04:00
And here'sהנה anotherאַחֵר exampleדוגמא.
97
225000
2000
הנה עוד דוגמא.
04:02
This is from Britain'sשל בריטניה leadingמוֹבִיל dietדִיאֵטָה and nutritionistתְזוּנַאִי in the Dailyיום יומי Mirrorמַרְאָה,
98
227000
3000
היא מגיעה מהתזונאית המובילה של בריטניה בדיילי מירור,
04:05
whichאיזה is our secondשְׁנִיָה biggestהגדול ביותר sellingמוכר newspaperעיתון.
99
230000
2000
העיתון השני בגודלו.
04:07
"An Australianאוסטרלי studyלימוד in 2001
100
232000
2000
"מחקר אוסטרלי ב2001
04:09
foundמצאתי that oliveזית oilשֶׁמֶן in combinationקוֹמבִּינַצִיָה with fruitsפירות, vegetablesיְרָקוֹת and pulsesפולסים
101
234000
2000
מצא ששמן זית בשילוב עם פירות וירקות
04:11
offersהצעות measurableמָדִיד protectionהֲגָנָה againstמול skinעור wrinklingsקמטים."
102
236000
2000
מגן נגד קמטים בעור."
04:13
And then they give you adviceעֵצָה:
103
238000
2000
והם מציעים:
04:15
"If you eatלאכול oliveזית oilשֶׁמֶן and vegetablesיְרָקוֹת, you'llאתה have fewerפחות skinעור wrinklesקמטים."
104
240000
2000
אם תאכלו שמן זית וירקות, יהיו לכם פחות קמטים."
04:17
And they very helpfullyעזרה tell you how to go and find the paperעיתון.
105
242000
2000
ויאמר לזכותם שהם מפנים אתכם למאמר.
04:19
So you go and find the paperעיתון, and what you find is an observationalתצפית studyלימוד.
106
244000
3000
אז אתם מוצאים את המאמר ומגלים שזה מחקר תצפיתי.
04:22
Obviouslyמובן מאליו nobodyאף אחד has been ableיכול
107
247000
2000
ברור שאף אחד לא
04:24
to go back to 1930,
108
249000
2000
חזר בזמן ל 1930,
04:26
get all the people bornנוֹלָד in one maternityאִמָהוּת unitיחידה,
109
251000
3000
אסף את כל מי שנולד בבית היולדות,
04:29
and halfחֲצִי of them eatלאכול lots of fruitפרי and vegצמח and oliveזית oilשֶׁמֶן,
110
254000
2000
נתן לחצי לאכול הרבה ירקות, פירות ושמן זית,
04:31
and then halfחֲצִי of them eatלאכול McDonald'sמקדונלדס,
111
256000
2000
ולחצי השני נתן לאכול מקדונלדס,
04:33
and then we see how manyרב wrinklesקמטים you've got laterיותר מאוחר.
112
258000
2000
ואז ראה כמה קמטים היו להם אח"כ.
04:35
You have to take a snapshotתצלום of how people are now.
113
260000
2000
חייבים לצלם תמונת מצב של האנשים היום.
04:37
And what you find is, of courseקוּרס,
114
262000
2000
ומה שמוצאים, כמובן,
04:39
people who eatלאכול vegצמח and oliveזית oilשֶׁמֶן have fewerפחות skinעור wrinklesקמטים.
115
264000
3000
זה שיש פחות קמטים למי שאוכל ירקות ושמן זית.
04:42
But that's because people who eatלאכול fruitפרי and vegצמח and oliveזית oilשֶׁמֶן,
116
267000
3000
אבל זה משום שמי שאוכל ירקות, פירות ושמן זית,
04:45
they're freaksפריקים, they're not normalנוֹרמָלִי, they're like you;
117
270000
3000
הוא פריק, לא נורמלי, הם כמוכם,
04:48
they come to eventsאירועים like this.
118
273000
2000
הם באים לארועים כאלה.
04:50
They are poshמְהוּדָר, they're wealthyעָשִׁיר, they're lessפָּחוּת likelyסָבִיר to have outdoorבָּחוּץ jobsמקומות תעסוקה,
119
275000
3000
הם עשירים, אופנתיים, עובדים פחות בחוץ,
04:53
they're lessפָּחוּת likelyסָבִיר to do manualמדריך ל laborעבודה,
120
278000
2000
עובדים פחות בעבודות פיזיות,
04:55
they have better socialחֶברָתִי supportתמיכה, they're lessפָּחוּת likelyסָבִיר to smokeעָשָׁן --
121
280000
2000
יש להם תמיכה חברתית טובה יותר, הם מעשנים פחות -
04:57
so for a wholeכֹּל hostמארח of fascinatingמַקסִים, interlockingשלובים
122
282000
2000
אז ממגוון עשיר של סיבות מרתקות, חברתיות,
04:59
socialחֶברָתִי, politicalפּוֹלִיטִי and culturalתַרְבּוּתִי reasonsסיבות,
123
284000
2000
פוליטיות, תרבותיות, הקשורות זו לזו,
05:01
they are lessפָּחוּת likelyסָבִיר to have skinעור wrinklesקמטים.
124
286000
2000
יש להם פחות סיכוי לקמטים בעור.
05:03
That doesn't mean that it's the vegetablesיְרָקוֹת or the oliveזית oilשֶׁמֶן.
125
288000
2000
זה לא אומר שזה בגלל הירקות או שמן הזית.
05:05
(Laughterצחוק)
126
290000
2000
(צחוק)
05:07
So ideallyבאופן אידיאלי what you want to do is a trialמִשׁפָּט.
127
292000
3000
אז אידיאלית, היינו רוצים לערוך ניסוי.
05:10
And everybodyכולם thinksחושב they're very familiarמוּכָּר with the ideaרַעְיוֹן of a trialמִשׁפָּט.
128
295000
2000
וכולם חושבים שהם מכירים היטב את הניסוי.
05:12
Trialsניסויים are very oldישן. The first trialמִשׁפָּט was in the Bibleכִּתבֵי הַקוֹדֶשׁ -- Danielדניאל 1:12.
129
297000
3000
ניסויים הם מאוד ותיקים. הניסוי הראשון היה בתנ"ך, דניאל א', י"ב.
05:15
It's very straightforwardפָּשׁוּט -- you take a bunchצְרוֹר of people, you splitלְפַצֵל them in halfחֲצִי,
130
300000
2000
פשוט מאוד - קחו חבורה של אנשים, חלקו אותם לשניים,
05:17
you treatטיפול one groupקְבוּצָה one way, you treatטיפול the other groupקְבוּצָה the other way,
131
302000
2000
תתייחסו לכל קבוצה אחרת,
05:19
and a little while laterיותר מאוחר, you followלעקוב אחר them up
132
304000
2000
תעקבו אחריהם
05:21
and see what happenedקרה to eachכל אחד of them.
133
306000
2000
ותראו מה קורה לכל קבוצה.
05:23
So I'm going to tell you about one trialמִשׁפָּט,
134
308000
2000
אז אני אספר לכם על ניסוי אחד,
05:25
whichאיזה is probablyכנראה the mostרוב well-reportedדיווח היטב trialמִשׁפָּט
135
310000
2000
אולי הניסוי הכי מפורסם
05:27
in the U.K. newsחֲדָשׁוֹת mediaכְּלֵי תִקְשׁוֹרֶת over the pastעבר decadeעָשׂוֹר.
136
312000
2000
בתקשורת בבריטניה בעשור האחרון.
05:29
And this is the trialמִשׁפָּט of fishדג oilשֶׁמֶן pillsגלולות.
137
314000
2000
וזה הניסוי של כמוסות שמן דגים.
05:31
And the claimתְבִיעָה was fishדג oilשֶׁמֶן pillsגלולות improveלְשַׁפֵּר schoolבית ספר performanceביצועים and behaviorהִתְנַהֲגוּת
138
316000
2000
שטען ששמן דגים משפר ביצועים בביה"ס והתנהגות
05:33
in mainstreamהמיינסטרים childrenיְלָדִים.
139
318000
2000
בילדים רגילים.
05:35
And they said, "We'veללא שם: יש לנו doneבוצע a trialמִשׁפָּט.
140
320000
2000
והם אמרו "ערכנו ניסוי.
05:37
All the previousקודם trialsניסויים were positiveחִיוּבִי, and we know this one'sיחידות gonna be too."
141
322000
2000
כל הניסויים הקודמים הצליחו, ואנחנו יודעים שגם זה יצליח."
05:39
That should always ringטַבַּעַת alarmאזעקה bellsפעמונים.
142
324000
2000
זה צריך להפעיל פעמון אזהרה.
05:41
Because if you alreadyכְּבָר know the answerתשובה to your trialמִשׁפָּט, you shouldn'tלא צריך be doing one.
143
326000
3000
כי אם אתה כבר יודע מה תהיה תוצאת הניסוי, אתה לא צריך לערוך אותו.
05:44
Eitherאוֹ you've riggedמְבוּיָם it by designלְעַצֵב,
144
329000
2000
או שתחמנת בתכנון המחקר,
05:46
or you've got enoughמספיק dataנתונים so there's no need to randomizeאקראי people anymoreיותר.
145
331000
3000
או שיש לך מספיק מידע ואתה לא צריך להקצות יותר אנשים.
05:49
So this is what they were going to do in theirשֶׁלָהֶם trialמִשׁפָּט.
146
334000
3000
אז זה מה שהם עמדו לעשות בניסוי שלהם.
05:52
They were takingלְקִיחָה 3,000 childrenיְלָדִים,
147
337000
2000
הם לקחו 3,000 ילדים,
05:54
they were going to give them all these hugeעָצוּם fishדג oilשֶׁמֶן pillsגלולות,
148
339000
2000
התכוונו לתת להם כמוסות שמן דגים ענקיות,
05:56
sixשֵׁשׁ of them a day,
149
341000
2000
6 כמוסות ביום,
05:58
and then a yearשָׁנָה laterיותר מאוחר, they were going to measureלִמְדוֹד theirשֶׁלָהֶם schoolבית ספר examבְּחִינָה performanceביצועים
150
343000
3000
ושנה לאחר מכן רצו למדוד את ההצלחה שלהם במבחן
06:01
and compareלְהַשְׁווֹת theirשֶׁלָהֶם schoolבית ספר examבְּחִינָה performanceביצועים
151
346000
2000
ולהשוות את הציון שלהם
06:03
againstמול what they predictedניבא theirשֶׁלָהֶם examבְּחִינָה performanceביצועים would have been
152
348000
2000
לעומת מה שהם ניבאו שהציון יהיה
06:05
if they hadn'tלא had the pillsגלולות.
153
350000
3000
אילולא לקחו את הכמוסות.
06:08
Now can anybodyמִישֶׁהוּ spotלְזַהוֹת a flawפְּגָם in this designלְעַצֵב?
154
353000
3000
מישהו רואה כאן איזו שהיא בעיה?
06:11
And no professorsפרופסורים of clinicalקליני trialמִשׁפָּט methodologyמֵתוֹדוֹלוֹגִיָה
155
356000
3000
לפרופסורים לשיטות מחקר קליניות
06:14
are allowedמוּתָר to answerתשובה this questionשְׁאֵלָה.
156
359000
2000
אסור לענות.
06:16
So there's no controlלִשְׁלוֹט; there's no controlלִשְׁלוֹט groupקְבוּצָה.
157
361000
2000
אז אין כאן קבוצת ביקורת.
06:18
But that soundsקולות really techieטק.
158
363000
2000
וזה נשמע מאוד טכני,
06:20
That's a technicalטֶכנִי termטווח.
159
365000
2000
זה מושג טכני.
06:22
The kidsילדים got the pillsגלולות, and then theirשֶׁלָהֶם performanceביצועים improvedמְשׁוּפָּר.
160
367000
2000
הילדים קיבלו כמוסות והביצועים שלהם השתפרו.
06:24
What elseאַחֵר could it possiblyיִתָכֵן be if it wasn'tלא היה the pillsגלולות?
161
369000
3000
מה עוד יכול לגרום לכך פרט לכמוסות?
06:27
They got olderישן יותר. We all developלְפַתֵחַ over time.
162
372000
3000
הם התבגרו. כולנו מתפתחים כל הזמן.
06:30
And of courseקוּרס, alsoגַם there's the placeboתְרוּפַת סְרָק effectהשפעה.
163
375000
2000
וכמובן, יש גם אפקט פלצבו.
06:32
The placeboתְרוּפַת סְרָק effectהשפעה is one of the mostרוב fascinatingמַקסִים things in the wholeכֹּל of medicineתרופה.
164
377000
2000
אפקט הפלצבו הוא אחד הדברים המרתקים ברפואה.
06:34
It's not just about takingלְקִיחָה a pillכַּדוּר, and your performanceביצועים and your painכְּאֵב gettingמקבל better.
165
379000
3000
זה לא רק שכדור יכול לשפר ביצועים ולהפחית כאב.
06:37
It's about our beliefsאמונות and expectationsציפיות.
166
382000
2000
זה קשור לאמונות שלנו ולציפיות שלנו.
06:39
It's about the culturalתַרְבּוּתִי meaningמַשְׁמָעוּת of a treatmentיַחַס.
167
384000
2000
זה קשור למשמעות התרבותית שיש לטיפול.
06:41
And this has been demonstratedהפגינו in a wholeכֹּל raftרַפסוֹדָה of fascinatingמַקסִים studiesלימודים
168
386000
3000
וזה הודגם במגוון מחקרים מרתקים
06:44
comparingהשוואת one kindסוג of placeboתְרוּפַת סְרָק againstמול anotherאַחֵר.
169
389000
3000
המשווים בין סוגי פלצבו שונים.
06:47
So we know, for exampleדוגמא, that two sugarסוכר pillsגלולות a day
170
392000
2000
אז אנחנו יודעים, למשל, ששני כדורי סוכר ביום
06:49
are a more effectiveיָעִיל treatmentיַחַס for gettingמקבל ridלְשַׁחְרֵר of gastricקֵבָתִי ulcersכיבים
171
394000
2000
אפקטיביים יותר לחיסול אולקוס
06:51
than one sugarסוכר pillכַּדוּר.
172
396000
2000
מאשר כדור סוכר אחד.
06:53
Two sugarסוכר pillsגלולות a day beatsפעימות one sugarסוכר pillכַּדוּר a day.
173
398000
2000
שני כדורי סוכר ביום עדיפים על כדור אחד.
06:55
And that's an outrageousמְזַעזֵעַ and ridiculousמְגוּחָך findingמִמצָא, but it's trueנָכוֹן.
174
400000
3000
וזה ממצא מגוחך, אבל נכון.
06:58
We know from threeשְׁלוֹשָׁה differentשונה studiesלימודים on threeשְׁלוֹשָׁה differentשונה typesסוגים of painכְּאֵב
175
403000
2000
מ3 מחקרים על 3 סוגי כאב עולה
07:00
that a saltwaterמי מלח injectionזריקה is a more effectiveיָעִיל treatmentיַחַס for painכְּאֵב
176
405000
3000
שהזרקת מי מלח מפחיתה כאב
07:03
than takingלְקִיחָה a sugarסוכר pillכַּדוּר, takingלְקִיחָה a dummyדֶמֶה pillכַּדוּר that has no medicineתרופה in it --
177
408000
4000
יותר מאשר כדור סוכר, כדור סרק ללא תרופה,
07:07
not because the injectionזריקה or the pillsגלולות do anything physicallyפיזית to the bodyגוּף,
178
412000
3000
לא משום שהזריקה או הכדור עושים משהו פיזי לגוף,
07:10
but because an injectionזריקה feelsמרגיש like a much more dramaticדְרָמָטִי interventionהתערבות.
179
415000
3000
אלא משום שהזריקה נתפסת כטיפול יותר דרמטי.
07:13
So we know that our beliefsאמונות and expectationsציפיות
180
418000
2000
אז אנחנו יודעים שהאמונות והציפיות שלנו
07:15
can be manipulatedמניפולציה,
181
420000
2000
ניתנות למניפולציה,
07:17
whichאיזה is why we do trialsניסויים
182
422000
2000
ולכן אנחנו עורכים ניסויים
07:19
where we controlלִשְׁלוֹט againstמול a placeboתְרוּפַת סְרָק --
183
424000
2000
בהם משווים את הטיפול לפלצבו,
07:21
where one halfחֲצִי of the people get the realאמיתי treatmentיַחַס
184
426000
2000
בהם חצי מקבלים את הטיפול האמיתי
07:23
and the other halfחֲצִי get placeboתְרוּפַת סְרָק.
185
428000
2000
וחצי מקבלים פלצבו.
07:25
But that's not enoughמספיק.
186
430000
3000
אבל זה לא מספיק.
07:28
What I've just shownמוצג you are examplesדוגמאות of the very simpleפָּשׁוּט and straightforwardפָּשׁוּט waysדרכים
187
433000
3000
הראיתי לכם את הדרכים הפשוטות
07:31
that journalistsעיתונאים and foodמזון supplementלְהַשְׁלִים pillכַּדוּר peddlersרוכלים
188
436000
2000
דרכן יכולים עיתונאים, מוכרי תוספי מזון
07:33
and naturopathsנטורופתים
189
438000
2000
ונתורופטים
07:35
can distortלְסַלֵף evidenceעֵדוּת for theirשֶׁלָהֶם ownשֶׁלוֹ purposesמטרות.
190
440000
3000
לעוות את הנתונים למטרתם.
07:38
What I find really fascinatingמַקסִים
191
443000
2000
מה שמרתק בעיני
07:40
is that the pharmaceuticalהתרופות industryתַעֲשִׂיָה
192
445000
2000
זה שתעשיית התרופות
07:42
usesשימו exactlyבְּדִיוּק the sameאותו kindsמיני of tricksטריקים and devicesהתקנים,
193
447000
2000
משתמשת בדיוק באותם טריקים,
07:44
but slightlyמְעַט more sophisticatedמתוחכם versionsגרסאות of them,
194
449000
3000
אבל בגרסאות מעט יותר מתוחכמות,
07:47
in orderלהזמין to distortלְסַלֵף the evidenceעֵדוּת that they give to doctorsרופאים and patientsחולים,
195
452000
3000
על מנת לעוות את הנתונים שהם נותנים לרופאים ולפציינטים,
07:50
and whichאיזה we use to make vitallyויטאלי importantחָשׁוּב decisionsהחלטות.
196
455000
3000
בהם אנו משתמשים לקבל החלטות.
07:53
So firstlyקוֹדֶם כֹּל, trialsניסויים againstמול placeboתְרוּפַת סְרָק:
197
458000
2000
אז ראשית, ניסוי מול פלצבו:
07:55
everybodyכולם thinksחושב they know that a trialמִשׁפָּט should be
198
460000
2000
כולם חושבים שבניסוי צריך
07:57
a comparisonהשוואה of your newחָדָשׁ drugתְרוּפָה againstמול placeboתְרוּפַת סְרָק.
199
462000
2000
להשוות את התרופה החדשה לעומת פלצבו.
07:59
But actuallyלמעשה in a lot of situationsמצבים that's wrongלא בסדר.
200
464000
2000
אבל למעשה, בהרבה מצבים זו שגיאה.
08:01
Because oftenלעתים קרובות we alreadyכְּבָר have a very good treatmentיַחַס that is currentlyכַּיוֹם availableזמין,
201
466000
3000
כי לעיתים קרובות יש לנו כבר טיפול טוב זמין,
08:04
so we don't want to know that your alternativeחֲלוּפָה newחָדָשׁ treatmentיַחַס
202
469000
2000
אז אנחנו לא רוצים לדעת שהתרופה החדשה שלכם
08:06
is better than nothing.
203
471000
2000
טובה יותר מכלום.
08:08
We want to know that it's better than the bestהטוב ביותר currentlyכַּיוֹם availableזמין treatmentיַחַס that we have.
204
473000
3000
אנחנו רוצים לדעת שהיא טובה יותר מהטיפול הכי טוב שיש כיום.
08:11
And yetעדיין, repeatedlyשוב ושוב, you consistentlyבאופן עקבי see people doing trialsניסויים
205
476000
3000
ועדיין, שוב ושוב, אנשים עורכים ניסוי
08:14
still againstמול placeboתְרוּפַת סְרָק.
206
479000
2000
בהשוואה לפלצבו.
08:16
And you can get licenseרישיון to bringלְהָבִיא your drugתְרוּפָה to marketשׁוּק
207
481000
2000
ואפשר לקבל רשיון להכניס את התרופה לשוק
08:18
with only dataנתונים showingמראה that it's better than nothing,
208
483000
2000
רק עם מידע שמראה שהיא טובה יותר מכלום,
08:20
whichאיזה is uselessחֲסַר תוֹעֶלֶת for a doctorדוֹקטוֹר like me tryingמנסה to make a decisionהַחְלָטָה.
209
485000
3000
שזה חסר ערך לרופא כמוני שמנסה לקבל החלטה.
08:23
But that's not the only way you can rigלבוש your dataנתונים.
210
488000
2000
אבל זו לא הדרך היחידה בה אתם יכולים לעוות את הנתונים שלכם.
08:25
You can alsoגַם rigלבוש your dataנתונים
211
490000
2000
אתם יכולים לעוות אותם
08:27
by makingהֲכָנָה the thing you compareלְהַשְׁווֹת your newחָדָשׁ drugתְרוּפָה againstמול
212
492000
2000
גם בכך שתשוו את התרופה שלכם אל
08:29
really rubbishזבל.
213
494000
2000
זבל.
08:31
You can give the competingמתחרים drugתְרוּפָה in too lowנָמוּך a doseמָנָה,
214
496000
2000
אתם יכולים לתת את התרופה המתחרה במינון נמוך מדי,
08:33
so that people aren'tלא properlyכמו שצריך treatedטופל.
215
498000
2000
כך שאנשים לא באמת מטופלים.
08:35
You can give the competingמתחרים drugתְרוּפָה in too highגָבוֹהַ a doseמָנָה,
216
500000
2000
או במינון גבוה מדי,
08:37
so that people get sideצַד effectsההשפעות.
217
502000
2000
כך שאנשים יקבלו תופעות לוואי.
08:39
And this is exactlyבְּדִיוּק what happenedקרה
218
504000
2000
וזה בדיוק מה שקרה
08:41
whichאיזה antipsychoticאנטי פסיכוטיות medicationתרופות for schizophreniaסכִיזוֹפרֶנִיָה.
219
506000
2000
עם תרופות אנטי-פסיכוטיות לסכיזופרניה.
08:43
20 yearsשנים agoלִפנֵי, a newחָדָשׁ generationדוֹר of antipsychoticאנטי פסיכוטיות drugsסמים were broughtהביא in
220
508000
3000
לפני 20 שנה, דור חדש של תרופות אנטי-פסיכוטיות הוכנס
08:46
and the promiseהַבטָחָה was that they would have fewerפחות sideצַד effectsההשפעות.
221
511000
3000
עם הבטחה לפחות תופעות לוואי.
08:49
So people setמַעֲרֶכֶת about doing trialsניסויים of these newחָדָשׁ drugsסמים
222
514000
2000
אז אנשים התחילו לערוך ניסויים על התרופות האלה
08:51
againstמול the oldישן drugsסמים,
223
516000
2000
בהשוואה לתרופות הישנות,
08:53
but they gaveנתן the oldישן drugsסמים in ridiculouslyמגוחך highגָבוֹהַ dosesמינון --
224
518000
2000
אבל הם נתנו את התרופות הישנות במינונים גבוהים באופן מגוחך,
08:55
20 milligramsמיליגרם a day of haloperidolהלופרידול.
225
520000
2000
20 מ"ג הלופרידול ליום.
08:57
And it's a foregoneהמתבקש conclusionסיכום,
226
522000
2000
וזו מסקנה ידועה,
08:59
if you give a drugתְרוּפָה at that highגָבוֹהַ a doseמָנָה,
227
524000
2000
שאם תתנו תרופה במינון גבוה כזה,
09:01
that it will have more sideצַד effectsההשפעות and that your newחָדָשׁ drugתְרוּפָה will look better.
228
526000
3000
יהיו לה יותר תופעות לוואי, והתרופה החדשה שלכם תיראה טוב יותר.
09:04
10 yearsשנים agoלִפנֵי, historyהִיסטוֹרִיָה repeatedחוזר על עצמו itselfעצמה, interestinglyמעניין,
229
529000
2000
לפני 10 שנים, ההיסטוריה חזרה על עצמה,
09:06
when risperidoneריספרידון, whichאיזה was the first of the new-generationדור חדש antipscyhoticאנטי פסיכוטיות drugsסמים,
230
531000
3000
כשריספרידון, תרופה אנטי-פסיכוטית ראשונה מהדור החדש,
09:09
cameבא off copyrightזכויות יוצרים, so anybodyמִישֶׁהוּ could make copiesעותקים.
231
534000
3000
איבדה את זכויות היוצרים, כך שכל אחד יכול היה להכין העתקים שלה.
09:12
Everybodyכולם wanted to showלְהַצִיג that theirשֶׁלָהֶם drugתְרוּפָה was better than risperidoneריספרידון,
232
537000
2000
כולם רצו להראות שהתרופה שלהם טובה מריספרידון,
09:14
so you see a bunchצְרוֹר of trialsניסויים comparingהשוואת newחָדָשׁ antipsychoticאנטי פסיכוטיות drugsסמים
233
539000
3000
אז ראיתם מחקרים שמשווים תרופות אנטי-פסיכוטיות חדשות
09:17
againstמול risperidoneריספרידון at eightשמונה milligramsמיליגרם a day.
234
542000
2000
אל 8 מ"ג ריספרידון ליום.
09:19
Again, not an insaneמטורף doseמָנָה, not an illegalבִּלתִי חוּקִי doseמָנָה,
235
544000
2000
שוב, זה לא מינון מופרע או בלתי חוקי,
09:21
but very much at the highגָבוֹהַ endסוֹף of normalנוֹרמָלִי.
236
546000
2000
אבל בהחלט בקצה העליון של הנורמה.
09:23
And so you're boundכָּרוּך to make your newחָדָשׁ drugתְרוּפָה look better.
237
548000
3000
ואז בטוח שהתרופה החדשה שלהם תיראה טוב יותר.
09:26
And so it's no surpriseהַפתָעָה that overallבאופן כללי,
238
551000
3000
לכן זה כלל לא מפתיע שבסה"כ,
09:29
industry-fundedבמימון בתעשייה trialsניסויים
239
554000
2000
ניסויים הממומנים ע"י התעשייה
09:31
are fourארבעה timesפִּי more likelyסָבִיר to give a positiveחִיוּבִי resultתוֹצָאָה
240
556000
2000
מציגים תוצאה חיובית פי 4 יותר
09:33
than independentlyבאופן עצמאי sponsoredבחסות trialsניסויים.
241
558000
3000
מאשר מחקרים בעלי מימון עצמאי.
09:36
But -- and it's a bigגָדוֹל but --
242
561000
3000
אבל - ויש כאן אבל גדול -
09:39
(Laughterצחוק)
243
564000
2000
(צחוק)
09:41
it turnsפונה out,
244
566000
2000
מתברר,
09:43
when you look at the methodsשיטות used by industry-fundedבמימון בתעשייה trialsניסויים,
245
568000
3000
שכשבוחנים את השיטות בהם נערכים ניסויים הממומנים ע"י התעשיה,
09:46
that they're actuallyלמעשה better
246
571000
2000
הם בעצם יותר טובים
09:48
than independentlyבאופן עצמאי sponsoredבחסות trialsניסויים.
247
573000
2000
מאשר מחקרים עצמאיים.
09:50
And yetעדיין, they always manageלנהל to to get the resultתוֹצָאָה that they want.
248
575000
3000
ועדיין, הם תמיד מצליחים להשיג את התוצאה שהם רוצים.
09:53
So how does this work?
249
578000
2000
אז איך זה עובד?
09:55
How can we explainלהסביר this strangeמוּזָר phenomenonתופעה?
250
580000
3000
איך אפשר להסביר את התופעה המוזרה הזו?
09:58
Well it turnsפונה out that what happensקורה
251
583000
2000
ובכן, מתברר שמה שקורה
10:00
is the negativeשלילי dataנתונים goesהולך missingחָסֵר in actionפעולה;
252
585000
2000
זה שהמידע השלילי "נעלם",
10:02
it's withheldלא נמנע from doctorsרופאים and patientsחולים.
253
587000
2000
הוא מוסתר מרופאים ומפציינטים.
10:04
And this is the mostרוב importantחָשׁוּב aspectאספקט of the wholeכֹּל storyכַּתָבָה.
254
589000
2000
וזה הפן החשוב ביותר בכל הסיפור.
10:06
It's at the topחלק עליון of the pyramidפִּירָמִידָה of evidenceעֵדוּת.
255
591000
2000
בפסגת פירמידת ההוכחות.
10:08
We need to have all of the dataנתונים on a particularמיוחד treatmentיַחַס
256
593000
3000
אנחנו צריכים לקבל את כל הנתונים על טיפול מסוים
10:11
to know whetherהאם or not it really is effectiveיָעִיל.
257
596000
2000
כדי לדעת אם הוא באמת יעיל.
10:13
And there are two differentשונה waysדרכים that you can spotלְזַהוֹת
258
598000
2000
ויש שתי דרכים בהן ניתן לגלות
10:15
whetherהאם some dataנתונים has goneנעלם missingחָסֵר in actionפעולה.
259
600000
2000
אם חלק מהמידע "נעלם".
10:17
You can use statisticsסטָטִיסטִיקָה, or you can use storiesסיפורים.
260
602000
3000
סטטיסטיקה או סיפורים.
10:20
I personallyאישית preferלְהַעֲדִיף statisticsסטָטִיסטִיקָה, so that's what I'm going to do first.
261
605000
2000
אישית, אני מעדיף סטטיסטיקה, אז אראה את זה קודם.
10:22
This is something calledשקוראים לו funnelמַשׁפֵּך plotעלילה.
262
607000
2000
זה משהו שנקרא funnel plot.
10:24
And a funnelמַשׁפֵּך plotעלילה is a very cleverחכם way of spottingתַצְפִּית
263
609000
2000
וזאת דרך מאוד מתוחכמת לזהות
10:26
if smallקָטָן negativeשלילי trialsניסויים have disappearedנעלם, have goneנעלם missingחָסֵר in actionפעולה.
264
611000
3000
אם מחקרים שליליים קטנים "נעלמו".
10:29
So this is a graphגרָף of all of the trialsניסויים
265
614000
2000
אז הנה הגרף של כל הניסויים
10:31
that have been doneבוצע on a particularמיוחד treatmentיַחַס.
266
616000
2000
שנעשו על טיפול מסויים.
10:33
And as you go up towardsלִקרַאת the topחלק עליון of the graphגרָף,
267
618000
2000
וככל שעולים במעלה הגרף,
10:35
what you see is eachכל אחד dotנְקוּדָה is a trialמִשׁפָּט.
268
620000
2000
כל נקודה כאן היא ניסוי.
10:37
And as you go up, those are the biggerגדול יותר trialsניסויים, so they'veהם כבר got lessפָּחוּת errorשְׁגִיאָה in them.
269
622000
3000
וככל שאתם עולים, אלה הניסויים הגדולים יותר, אז הטעות בהם קטנה יותר.
10:40
So they're lessפָּחוּת likelyסָבִיר to be randomlyבאופן אקראי falseשֶׁקֶר positivesחיוביים, randomlyבאופן אקראי falseשֶׁקֶר negativesשליליות.
270
625000
3000
כלומר הם יתנו פחות תוצאות שגויות.
10:43
So they all clusterאֶשׁכּוֹל togetherיַחַד.
271
628000
2000
אז הם מצטברים יחד.
10:45
The bigגָדוֹל trialsניסויים are closerיותר קרוב to the trueנָכוֹן answerתשובה.
272
630000
2000
הניסויים הגדולים קרובים יותר לתשובה האמיתית.
10:47
Then as you go furtherנוסף down at the bottomתַחתִית,
273
632000
2000
וככל שתרדו למטה,
10:49
what you can see is, over on this sideצַד, the spuriousמְזוּיָף falseשֶׁקֶר negativesשליליות,
274
634000
3000
אפשר לראות בצד הזה את התוצאות השליליות השגויות,
10:52
and over on this sideצַד, the spuriousמְזוּיָף falseשֶׁקֶר positivesחיוביים.
275
637000
2000
ובצד הזה את התוצאות החיוביות השגויות.
10:54
If there is publicationפרסום biasהֲטָיָה,
276
639000
2000
אם יש הטיה בפרסום המחקרים,
10:56
if smallקָטָן negativeשלילי trialsניסויים have goneנעלם missingחָסֵר in actionפעולה,
277
641000
3000
אם מחקרים שליליים קטנים "נעלמו",
10:59
you can see it on one of these graphsגרפים.
278
644000
2000
אפשר יהיה לראות את זה באחד הגרפים האלה.
11:01
So you can see here that the smallקָטָן negativeשלילי trialsניסויים
279
646000
2000
אז אפשר לראות שהמחקרים השליליים הקטנים
11:03
that should be on the bottomתַחתִית left have disappearedנעלם.
280
648000
2000
שהיו אמורים להימצא למטה משמאל - נעלמו.
11:05
This is a graphגרָף demonstratingהפגנה the presenceנוכחות of publicationפרסום biasהֲטָיָה
281
650000
3000
זה גרף שמדגים הטיה בפרסום מחקרים
11:08
in studiesלימודים of publicationפרסום biasהֲטָיָה.
282
653000
2000
במחקרים על הטיה בפרסום מחקרים.
11:10
And I think that's the funniestהכי מצחיק epidemiologyאֶפִּידֶמִיוֹלוֹגִיָה jokeבדיחה
283
655000
2000
ולדעתי זו הבדיחה האפידמיולוגית הכי מצחיקה
11:12
that you will ever hearלִשְׁמוֹעַ.
284
657000
2000
שאי פעם תשמעו.
11:14
That's how you can proveלְהוֹכִיחַ it statisticallyסטטיסטית,
285
659000
2000
כך אפשר להוכיח את זה סטטיסטית.
11:16
but what about storiesסיפורים?
286
661000
2000
מה לגבי סיפורים?
11:18
Well they're heinousמְתוֹעָב, they really are.
287
663000
2000
הם אכזריים. באמת.
11:20
This is a drugתְרוּפָה calledשקוראים לו reboxetinereboxetine.
288
665000
2000
זו תרופה בשם רבוקסטין.
11:22
This is a drugתְרוּפָה that I myselfעצמי have prescribedשנקבעו to patientsחולים.
289
667000
2000
תרופה שאני בעצמי רשמתי לפציינטים.
11:24
And I'm a very nerdyחנון doctorדוֹקטוֹר.
290
669000
2000
ואני רופא חנון.
11:26
I hopeלְקַווֹת I try to go out of my way to try and readלקרוא and understandמבין all the literatureסִפְרוּת.
291
671000
3000
אני מקווה שאני יוצא מגדרי לנסות ולקרוא ולהבין את הספרות.
11:29
I readלקרוא the trialsניסויים on this. They were all positiveחִיוּבִי. They were all well-conductedמנוהל היטב.
292
674000
3000
קראתי את הניסויים עליה, הם כולם היו חיוביים, כולם נערכו נכון.
11:32
I foundמצאתי no flawפְּגָם.
293
677000
2000
לא מצאתי בעיה.
11:34
Unfortunatelyלצערי, it turnedפנה out,
294
679000
2000
לרוע המזל, מתברר,
11:36
that manyרב of these trialsניסויים were withheldלא נמנע.
295
681000
2000
שניסויים רבים על התרופה הוסתרו.
11:38
In factעוּבדָה, 76 percentאָחוּז
296
683000
2000
למעשה, 76%
11:40
of all of the trialsניסויים that were doneבוצע on this drugתְרוּפָה
297
685000
2000
מכל המחקרים שנעשו על התרופה הזו
11:42
were withheldלא נמנע from doctorsרופאים and patientsחולים.
298
687000
2000
הוסתרו מרופאים ומפציינטים.
11:44
Now if you think about it,
299
689000
2000
עכשיו, אם תחשבו על זה,
11:46
if I tossedזרק a coinמַטְבֵּעַ a hundredמֵאָה timesפִּי,
300
691000
2000
אם אני אזרוק מטבע 100 פעם,
11:48
and I'm allowedמוּתָר to withholdלְנַכּוֹת from you
301
693000
2000
ומותר לי להסתיר מכם
11:50
the answersתשובות halfחֲצִי the timesפִּי,
302
695000
2000
את התשובות מחצית מהפעמים,
11:52
then I can convinceלְשַׁכְנֵעַ you
303
697000
2000
אז אני יכול לשכנע אתכם
11:54
that I have a coinמַטְבֵּעַ with two headsראשים.
304
699000
2000
שיש לי מטבע עם שני צידי פלי.
11:56
If we removeלְהַסִיר halfחֲצִי of the dataנתונים,
305
701000
2000
אם נסיר מחצית מהנתונים,
11:58
we can never know what the trueנָכוֹן effectהשפעה sizeגודל of these medicinesתרופות is.
306
703000
3000
לעולם לא נוכל לדעת מה גודל האפקט האמיתי של התרופות הללו.
12:01
And this is not an isolatedמְבוּדָד storyכַּתָבָה.
307
706000
2000
וזה לא מקרה בודד.
12:03
Around halfחֲצִי of all of the trialמִשׁפָּט dataנתונים on antidepressantsנוגדי דיכאון has been withheldלא נמנע,
308
708000
4000
בערך מחצית מנתוני הניסויים על תרופות אנטי-דכאוניות הוסתרה,
12:07
but it goesהולך way beyondמעבר that.
309
712000
2000
אבל זה יותר מזה.
12:09
The Nordicנורדי Cochraneקוקרן Groupקְבוּצָה were tryingמנסה to get a holdלְהַחזִיק of the dataנתונים on that
310
714000
2000
קבוצת קוקריין הסקנדינבית ניסתה להשיג את הנתונים האלה,
12:11
to bringלְהָבִיא it all togetherיַחַד.
311
716000
2000
לחבר הכל יחד.
12:13
The Cochraneקוקרן Groupsקבוצות are an internationalבינלאומי nonprofitללא מטרות רווח collaborationשיתוף פעולה
312
718000
3000
קבוצות קוקריין הן שת"פ בינלאומי שלא למטרות רווח
12:16
that produceליצר systematicשִׁיטָתִי reviewsביקורות of all of the dataנתונים that has ever been shownמוצג.
313
721000
3000
שמייצרות סקירות שיטתיות של כל הנתונים שהוצגו.
12:19
And they need to have accessגִישָׁה to all of the trialמִשׁפָּט dataנתונים.
314
724000
3000
והם צריכים גישה לכל נתוני הניסויים.
12:22
But the companiesחברות withheldלא נמנע that dataנתונים from them,
315
727000
3000
אבל החברות מנעו מהם את המידע הזה.
12:25
and so did the Europeanאֵירוֹפִּי Medicinesתרופות Agencyסוֹכְנוּת
316
730000
2000
וכך גם סוכנות התרופות האירופאית
12:27
for threeשְׁלוֹשָׁה yearsשנים.
317
732000
2000
במשך 3 שנים.
12:29
This is a problemבְּעָיָה that is currentlyכַּיוֹם lackingנָטוּל a solutionפִּתָרוֹן.
318
734000
3000
זו בעיה שכרגע אין לה פתרון.
12:32
And to showלְהַצִיג how bigגָדוֹל it goesהולך, this is a drugתְרוּפָה calledשקוראים לו Tamifluטמיפלו,
319
737000
3000
וכדי להראות את היקפה, זו תרופה בשם תמיפלו,
12:35
whichאיזה governmentsממשלות around the worldעוֹלָם
320
740000
2000
שממשלות בכל העולם
12:37
have spentמוּתַשׁ billionsמיליארדים and billionsמיליארדים of dollarsדולר on.
321
742000
2000
רכשו במיליארדי דולרים.
12:39
And they spendלְבַלוֹת that moneyכֶּסֶף on the promiseהַבטָחָה
322
744000
2000
והם הוציאו את הכסף הזה על ההבטחה
12:41
that this is a drugתְרוּפָה whichאיזה will reduceלְהַפחִית the rateציון
323
746000
2000
שהתרופה הזו תוריד את שכיחות
12:43
of complicationsסיבוכים with fluשַׁפַעַת.
324
748000
2000
סיבוכי השפעת.
12:45
We alreadyכְּבָר have the dataנתונים
325
750000
2000
יש לנו כבר מידע
12:47
showingמראה that it reducesמפחית the durationמֶשֶׁך of your fluשַׁפַעַת by a fewמְעַטִים hoursשעות.
326
752000
2000
המראה שהיא מפחיתה את משך השפעת בכמה שעות.
12:49
But I don't really careלְטַפֵּל about that. Governmentsממשלות don't careלְטַפֵּל about that.
327
754000
2000
אבל זה לא מעניין אותי או את הממשלות.
12:51
I'm very sorry if you have the fluשַׁפַעַת, I know it's horribleמַחרִיד,
328
756000
3000
אני מצטער אם יש לכם שפעת, אני יודע שזה נורא,
12:54
but we're not going to spendלְבַלוֹת billionsמיליארדים of dollarsדולר
329
759000
2000
אבל לא נוציא מיליארדי דולרים
12:56
tryingמנסה to reduceלְהַפחִית the durationמֶשֶׁך of your fluשַׁפַעַת symptomsהסימפטומים
330
761000
2000
כדי להפחית את משך הסימפטומים שלכם
12:58
by halfחֲצִי a day.
331
763000
2000
בחצי יום.
13:00
We prescribeלִקְבּוֹעַ these drugsסמים, we stockpileלֶאֱגוֹר them for emergenciesחירום
332
765000
2000
אנחנו נותנים מרשמים לתרופות האלה, אוגרים אותן למקרי חירום
13:02
on the understandingהֲבָנָה that they will reduceלְהַפחִית the numberמספר of complicationsסיבוכים,
333
767000
2000
מתוך הנחה שהן יפחיתו את מספר הסיבוכים,
13:04
whichאיזה meansאומר pneumoniaדלקת ריאות and whichאיזה meansאומר deathמוות.
334
769000
3000
כלומר דלקת ריאות, כלומר מוות.
13:07
The infectiousמִדַבֵּק diseasesמחלות Cochraneקוקרן Groupקְבוּצָה, whichאיזה are basedמבוסס in Italyאִיטַלִיָה,
335
772000
3000
קבוצת קוקריין למחלות זיהומיות הנמצאת באיטליה,
13:10
has been tryingמנסה to get
336
775000
2000
מנסה להשיג
13:12
the fullמלא dataנתונים in a usableשָׁמִישׁ formטופס out of the drugתְרוּפָה companiesחברות
337
777000
3000
את המידע המלא בפורמט שימושי מחברות התרופות
13:15
so that they can make a fullמלא decisionהַחְלָטָה
338
780000
3000
כך שהם יוכלו לקבל החלטה שלמה
13:18
about whetherהאם this drugתְרוּפָה is effectiveיָעִיל or not,
339
783000
2000
לגבי האפקטיביות שלה,
13:20
and they'veהם כבר not been ableיכול to get that informationמֵידָע.
340
785000
3000
והם לא מצליחים להשיג את המידע הזה.
13:23
This is undoubtedlyבְּלִי סָפֵק
341
788000
2000
זוהי ללא ספק
13:25
the singleיחיד biggestהגדול ביותר ethicalאֶתִי problemבְּעָיָה
342
790000
3000
הבעיה האתית החמורה ביותר
13:28
facingמוּל medicineתרופה todayהיום.
343
793000
2000
ברפואה היום.
13:30
We cannotלא יכול make decisionsהחלטות
344
795000
3000
אנחנו לא יכולים לקבל החלטות
13:33
in the absenceהֶעְדֵר of all of the informationמֵידָע.
345
798000
4000
ללא המידע המלא.
13:37
So it's a little bitbit difficultקָשֶׁה from there
346
802000
3000
אז קשה להוציא מכאן
13:40
to spinסיבוב in some kindסוג of positiveחִיוּבִי conclusionסיכום.
347
805000
4000
איזו שהיא מסקנה חיובית.
13:44
But I would say this:
348
809000
4000
אבל אני יכול לומר כך:
13:48
I think that sunlightאוֹר שֶׁמֶשׁ
349
813000
3000
אני חושב שהשמש
13:51
is the bestהטוב ביותר disinfectantמְחַטֵא.
350
816000
2000
היא המחטא הטוב ביותר.
13:53
All of these things are happeningמתרחש in plainמישור sightמראה,
351
818000
3000
כל הדברים האלה מתרחשים לעיני כל,
13:56
and they're all protectedמוּגָן
352
821000
2000
והם מוגנים
13:58
by a forceכּוֹחַ fieldשדה of tediousnessשִׁמָמוֹן.
353
823000
3000
בשדה כוח טרחני.
14:01
And I think, with all of the problemsבעיות in scienceמַדָע,
354
826000
2000
ועם כל הבעיות במדע,
14:03
one of the bestהטוב ביותר things that we can do
355
828000
2000
אחד הדברים הכי טובים שניתן לעשות
14:05
is to liftמעלית up the lidמִכסֶה,
356
830000
2000
זה להרים את המכסה,
14:07
fingerאֶצבַּע around in the mechanicsמֵכָנִיקָה and peerעמית in.
357
832000
2000
ולהציץ פנימה.
14:09
Thank you very much.
358
834000
2000
תודה רבה.
14:11
(Applauseתְשׁוּאוֹת)
359
836000
3000
(מחיאות כפיים)
Translated by Sigal Tifferet
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com