ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com
TEDGlobal 2011

Ben Goldacre: Battling bad science

Ben Goldacre: Der Kampf gegen schlechte Wissenschaft

Filmed:
2,713,579 views

Jeden Tag werden neue Gesundheitsratschläge in den Nachrichten gebracht, aber woher soll man wissen, ob sie stimmen? Der Arzt und Epidemiologe Ben Goldacre zeigt uns in Höchgeschwindigkeit, wie Beweise verfälscht werden können, angefangen von klar ersichtlichen Behauptungen zur Ernährung bis hin zu sehr subtilen Tricks der Pharmaindustrie.
- Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks. Full bio

Double-click the English transcript below to play the video.

00:15
So I'm a doctorArzt, but I kindArt of slippedrutschte sidewaysseitwärts into researchForschung,
0
0
3000
Ich bin eigentlich Arzt, bin aber sozusagen in die Forschung quer eingestiegen,
00:18
and now I'm an epidemiologistEpidemiologe.
1
3000
2000
und bin jetzt ein Epidemiologe.
00:20
And nobodyniemand really knowsweiß what epidemiologyEpidemiologie is.
2
5000
2000
Niemand weiß so genau, was Epidemiologie ist.
00:22
EpidemiologyEpidemiologie is the scienceWissenschaft of how we know in the realecht worldWelt
3
7000
3000
Epidemiologie ist die Wissenschaft dessen, herauszufinden,
00:25
if something is good for you or badschlecht for you.
4
10000
2000
ob etwas gut oder schlecht für uns ist.
00:27
And it's bestBeste understoodverstanden throughdurch exampleBeispiel
5
12000
2000
Am besten kann man das an Beispielen verstehen,
00:29
as the scienceWissenschaft of those crazyverrückt, wackyverrückte newspaperZeitung headlinesSchlagzeilen.
6
14000
5000
als die Wissenschaft dieser verrückten, abgedrehten Zeitungsüberschriften.
00:34
And these are just some of the examplesBeispiele.
7
19000
2000
Diese hier sind nur ein paar Beispiele.
00:36
These are from the DailyTägliche MailE-Mail. EveryJedes countryLand in the worldWelt has a newspaperZeitung like this.
8
21000
3000
Diese hier sind von der Daily Mail. Jedes Land der Welt hat so eine Zeitung.
00:39
It has this bizarreBizarre, ongoinglaufend philosophicalphilosophisch projectProjekt
9
24000
3000
Sie hat dieses bizarre philosophische Projekt am laufen,
00:42
of dividingsich teilend all the inanimateunbelebt objectsObjekte in the worldWelt
10
27000
2000
alle unbelebten Dinge der Welt dahingehend einzuteilen,
00:44
into the onesEinsen that eitherentweder causeUrsache or preventverhindern cancerKrebs.
11
29000
3000
ob sie Krebs verursachen oder Krebs verhindern.
00:47
So here are some of the things they said causeUrsache cancerKrebs recentlyvor kurzem:
12
32000
2000
Hier sind also einige der Dinge, über die sie in letzter Zeit gesagt haben, dass sie Krebs verursachen:
00:49
divorceScheidung, Wi-FiWi-Fi, toiletriesToilettenartikel and coffeeKaffee.
13
34000
2000
Scheidung, Wi-Fi, Körperpflegemittel und Kaffee.
00:51
Here are some of the things they say preventsverhindert, dass cancerKrebs:
14
36000
2000
Hier sind einige der Dinge, über die sie sagen, dass sie Krebs verhindern:
00:53
crustsKrusten, redrot pepperPfeffer, licoriceLakritz and coffeeKaffee.
15
38000
2000
Brotkrusten, rote Paprika, Lakritz und Kaffee.
00:55
So alreadybereits you can see there are contradictionsWidersprüche.
16
40000
2000
Sie können also schon hier sehen, dass es Widersprüche gibt.
00:57
CoffeeKaffee bothbeide causesUrsachen and preventsverhindert, dass cancerKrebs.
17
42000
2000
Kaffee verursacht und verhindert Krebs, sowohl als auch.
00:59
And as you startAnfang to readlesen on, you can see
18
44000
2000
Und wenn Sie weiterlesen, können Sie sehen,
01:01
that maybe there's some kindArt of politicalpolitisch valenceValence behindhinter some of this.
19
46000
3000
dass dahinter vielleicht eine Art politischer Wertigkeit steckt.
01:04
So for womenFrau, houseworkHausarbeit preventsverhindert, dass breastBrust cancerKrebs,
20
49000
2000
Hausarbeit verhindert also Brustkrebs bei Frauen,
01:06
but for menMänner, shoppingEinkaufen could make you impotentimpotent.
21
51000
3000
aber Einkaufen könnte Männer impotent machen.
01:09
So we know that we need to startAnfang
22
54000
3000
Wir wissen also, dass wir anfangen müssen,
01:12
unpickingvorgelegten wieder aufzuschnüren the scienceWissenschaft behindhinter this.
23
57000
3000
die Wissenschaft dahinter aufzutrennen.
01:15
And what I hopeHoffnung to showShow
24
60000
2000
Ich hoffe, zeigen zu können,
01:17
is that unpickingvorgelegten wieder aufzuschnüren dodgydodgy claimsAnsprüche,
25
62000
2000
dass die Untersuchung fragwürdiger Behauptungen,
01:19
unpickingvorgelegten wieder aufzuschnüren the evidenceBeweise behindhinter dodgydodgy claimsAnsprüche,
26
64000
2000
die Untersuchung der Beweise, die fragwürdige Behauptungen belegen,
01:21
isn't a kindArt of nastyBöse carpingnörgeln activityAktivität;
27
66000
3000
nicht eine Art fieser Mäkelei ist.
01:24
it's sociallysozial usefulsinnvoll,
28
69000
2000
Sie ist gesellschaftlich von Nutzen,
01:26
but it's alsoebenfalls an extremelyäußerst valuablewertvoll
29
71000
2000
aber sie ist auch eine extrem wertvolle
01:28
explanatoryerläuternd toolWerkzeug.
30
73000
2000
Erklärungshilfe.
01:30
Because realecht scienceWissenschaft is all about
31
75000
2000
Denn wirkliche Wissenschaft dreht sich
01:32
criticallykritisch appraisingBeurteilung the evidenceBeweise for somebodyjemand else'ssonst positionPosition.
32
77000
2000
um die kritische Auswertung der Beweise für die Meinung eines anderen.
01:34
That's what happensdas passiert in academicakademisch journalsZeitschriften.
33
79000
2000
Das ist es, was in akademischen Fachblättern geschieht.
01:36
That's what happensdas passiert at academicakademisch conferencesKonferenzen.
34
81000
2000
Das ist es, was an akademischen Konferenzen geschieht.
01:38
The Q&A sessionSession after a post-opPost-op presentsdie Geschenke dataDaten
35
83000
2000
Die Frage- und Antwortssession nach einer postoperativen Datenpräsentation
01:40
is oftenhäufig a bloodBlut bathBad.
36
85000
2000
ist oft ein Blutbad.
01:42
And nobodyniemand mindsKöpfe that. We activelyaktiv welcomeherzlich willkommen it.
37
87000
2000
Und das stört niemanden. Wir begrüßen es sogar.
01:44
It's like a consentingeinverstanden intellectualgeistig S&M activityAktivität.
38
89000
3000
Es ist, als ob wir einer intellektuellen sadomasochistischen Tätigkeit zustimmten.
01:47
So what I'm going to showShow you
39
92000
2000
Was ich Ihnen also zeigen werde,
01:49
is all of the mainMain things,
40
94000
2000
sind alle wichtigen Dinge,
01:51
all of the mainMain featuresEigenschaften of my disciplineDisziplin --
41
96000
2000
alle Hauptmerkmale meiner Disziplin –
01:53
evidence-basedEvidenz-basierte medicineMedizin.
42
98000
2000
beweisbezogene Medizin.
01:55
And I will talk you throughdurch all of these
43
100000
2000
Ich werde sie Ihnen alle erklären
01:57
and demonstratezeigen how they work,
44
102000
2000
und demonstrieren, wie sie funktionieren,
01:59
exclusivelyausschließlich usingmit examplesBeispiele of people gettingbekommen stuffSachen wrongfalsch.
45
104000
3000
ausschließlich unter Verwendung von Beispielen von Leuten, die Dinge falsch verstehen.
02:02
So we'llGut startAnfang with the absoluteAbsolute weakestschwächsten formbilden of evidenceBeweise knownbekannt to man,
46
107000
3000
Wir fangen also mit der absolut schwächsten From von Beweisen an, die bekannt ist,
02:05
and that is authorityBehörde.
47
110000
2000
und das ist Autorität.
02:07
In scienceWissenschaft, we don't carePflege how manyviele lettersBriefe you have after your nameName.
48
112000
3000
In der Wissenschaft ist es uns egal, wie viele Buchstaben Sie hinter Ihrem Namen haben.
02:10
In scienceWissenschaft, we want to know what your reasonsGründe dafür are for believingglaubend something.
49
115000
3000
In der Wissenschaft wollen wir wissen, welche Gründe Sie haben, etwas zu glauben.
02:13
How do you know that something is good for us
50
118000
2000
Wie wissen wir, dass etwas gut für uns
02:15
or badschlecht for us?
51
120000
2000
oder schlecht für uns ist?
02:17
But we're alsoebenfalls unimpressedunbeeindruckt by authorityBehörde,
52
122000
2000
Aber wir sind auch unbeeindruckt von Autorität,
02:19
because it's so easyeinfach to contriveersinnen.
53
124000
2000
denn sie ist so leicht vorzutäuschen.
02:21
This is somebodyjemand callednamens DrDr. GillianGillian McKeithMcKeith PhPH.D,
54
126000
2000
Das ist eine Frau namens Dr. med. Gillian McKeith,
02:23
or, to give her fullvoll medicalmedizinisch titleTitel, GillianGillian McKeithMcKeith.
55
128000
3000
oder, um ihren vollen medizinischen Titel zu benutzen, Gillian McKeith.
02:26
(LaughterLachen)
56
131000
3000
(Gelächter)
02:29
Again, everyjeden countryLand has somebodyjemand like this.
57
134000
2000
Nochmal: jedes Land hat so jemanden.
02:31
She is our TVTV dietDiät guruGuru.
58
136000
2000
Sie ist unser Fernseh-Ernährungsguru.
02:33
She has massivemassiv fivefünf seriesSerie of prime-timePrime time televisionFernsehen,
59
138000
3000
Sie hat volle fünf Serien in der Hauptsendezeit,
02:36
givinggeben out very lavishaufwändige and exoticexotische healthGesundheit adviceRat.
60
141000
3000
und sie erteilt großzügige und exotische Gesundheitsratschläge.
02:39
She, it turnswendet sich out, has a non-accreditednicht akkreditierten- correspondenceKorrespondenz courseKurs PhPH.D.
61
144000
3000
Es hat sich herausgestellt, dass sie in einem nichtanerkannten Fernkurs
02:42
from somewhereirgendwo in AmericaAmerika.
62
147000
2000
irgendwo in Amerika promoviert hat.
02:44
She alsoebenfalls boastsbietet that she's a certifiedzertifiziert professionalProfessionel memberMitglied
63
149000
2000
Sie prahlt damit, dass sie ein zertifiziertes, professionelles Mitglied
02:46
of the AmericanAmerikanische AssociationVerband of NutritionalErnährung ConsultantsBerater,
64
151000
2000
des Amerikanischen Verbandes von Ernährungsberatern ist,
02:48
whichwelche soundsGeräusche very glamorousglamourös and excitingaufregend.
65
153000
2000
was sehr glamourös und aufregend klingt.
02:50
You get a certificateZertifikat and everything.
66
155000
2000
Man bekommt da ein Zertifikat und alles.
02:52
This one belongsgehört to my deadtot catKatze HettiHetti. She was a horribleschrecklich catKatze.
67
157000
2000
Dieses hier gehört meiner toten Katze Hetti. Sie war eine schreckliche Katze.
02:54
You just go to the websiteWebseite, fillfüllen out the formbilden,
68
159000
2000
Sie gehen einfach zur Webseite, füllen ein Formular aus,
02:56
give them $60, and it arriveskommt an in the postPost.
69
161000
2000
bezahlen 60 Dollar und es kommt per Post.
02:58
Now that's not the only reasonGrund that we think this personPerson is an idiotDummkopf.
70
163000
2000
Das ist nun nicht der einzige Grund, aus dem wir denken, dass diese Person eine Idiotin ist.
03:00
She alsoebenfalls goesgeht and sayssagt things like,
71
165000
2000
Sie kommt auch daher und sagt Sachen wie:
03:02
you should eatEssen lots of darkdunkel greenGrün leavesBlätter,
72
167000
2000
„Sie sollten eine Menge dunkelgrüner Blätter essen,
03:04
because they containenthalten lots of chlorophyllChlorophyll, and that will really oxygenatemit Sauerstoff your bloodBlut.
73
169000
2000
denn sie beinhalten viel Chlorophyll, und das reichert Ihr Blut wirklich mit Sauerstoff an."
03:06
And anybodyirgendjemand who'swer ist doneerledigt schoolSchule biologyBiologie rememberserinnert sich
74
171000
2000
Jeder, der Schulbiologie hatte, erinnert sich,
03:08
that chlorophyllChlorophyll and chloroplastsChloroplasten
75
173000
2000
dass Chlorophyll und Chlorophlasten
03:10
only make oxygenSauerstoff in sunlightSonnenlicht,
76
175000
2000
nur im Sonnenlicht Sauerstoff produzieren,
03:12
and it's quiteganz darkdunkel in your bowelsEingeweide after you've eatengegessen spinachSpinat.
77
177000
3000
und es ist ziemlich dunkel in Ihren Därmen, nachdem Sie Spinat gegessen haben.
03:15
NextNächste, we need properordnungsgemäße scienceWissenschaft, properordnungsgemäße evidenceBeweise.
78
180000
3000
Als nächstes brauchen wir richtige Wissenschaft, richtige Beweise.
03:18
So, "RedRot wineWein can help preventverhindern breastBrust cancerKrebs."
79
183000
2000
Also: „Rotwein kann Brustkrebs verhindern."
03:20
This is a headlineÜberschrift from the DailyTägliche TelegraphTelegraph in the U.K.
80
185000
2000
Das ist eine Schlagzeile vom Daily Telegraph in Großbritannien.
03:22
"A glassGlas of redrot wineWein a day could help preventverhindern breastBrust cancerKrebs."
81
187000
3000
„Ein Glas Rotwein am Tag könnte Brustkrebs verhindern helfen."
03:25
So you go and find this paperPapier-, and what you find
82
190000
2000
Sie gehen also und finden diesen Fachartikel, und was Sie finden,
03:27
is it is a realecht pieceStück of scienceWissenschaft.
83
192000
2000
ist ein echtes Stück Wissenschaft.
03:29
It is a descriptionBeschreibung of the changesÄnderungen in one enzymeEnzym
84
194000
3000
Es ist eine Beschreibung der Veränderungen in einem Enzym,
03:32
when you dripTropf a chemicalchemisch extractedextrahiert from some redrot grapeTraube skinHaut
85
197000
3000
wenn man eine Chemikalie, die aus der Haut roter Weintrauben
03:35
ontoauf zu some cancerKrebs cellsZellen
86
200000
2000
gewonnen wurde, auf einige Krebszellen tropft,
03:37
in a dishGericht on a benchBank in a laboratoryLabor somewhereirgendwo.
87
202000
3000
irgendwo in einer Schale auf einem Arbeitstisch in einem Labor.
03:40
And that's a really usefulsinnvoll thing to describebeschreiben
88
205000
2000
Es ist wirklich nützlich,
03:42
in a scientificwissenschaftlich paperPapier-,
89
207000
2000
das in einem wissenschaftlichen Artikel zu beschreiben,
03:44
but on the questionFrage of your ownbesitzen personalpersönlich riskRisiko
90
209000
2000
aber über die Frage Ihres eigenen persönichen Risikos,
03:46
of gettingbekommen breastBrust cancerKrebs if you drinkGetränk redrot wineWein,
91
211000
2000
Brustkrebs zu bekommen, wenn Sie Rotwein trinken,
03:48
it tellserzählt you absolutelyunbedingt buggerBugger all.
92
213000
2000
gibt es Ihnen rein gar keine Auskunft.
03:50
ActuallyTatsächlich, it turnswendet sich out that your riskRisiko of breastBrust cancerKrebs
93
215000
2000
Es stellt sich tatsächlich heraus, dass Ihr Brustkrebs-Risiko
03:52
actuallytatsächlich increaseserhöht sich slightlyleicht
94
217000
2000
sogar mit der kleinsten Menge Alkohol,
03:54
with everyjeden amountMenge of alcoholAlkohol that you drinkGetränk.
95
219000
2000
die Sie trinken, leicht ansteigt.
03:56
So what we want is studiesStudien in realecht humanMensch people.
96
221000
4000
Was wir also wollen, sind Studien an echten Menschen.
04:00
And here'shier ist anotherein anderer exampleBeispiel.
97
225000
2000
Hier ist ein anderes Beispiel.
04:02
This is from Britain'sGroßbritanniens leadingführend dietDiät and nutritionistErnährungsberaterin in the DailyTägliche MirrorSpiegel,
98
227000
3000
Das hier ist von Britanniens führendem Diät- und Ernährungsexperten im Daily Mirror,
04:05
whichwelche is our secondzweite biggestgrößte sellingVerkauf newspaperZeitung.
99
230000
2000
die unsere Zeitung mit der zweitgrößten Auflage ist.
04:07
"An AustralianAustralische studyStudie in 2001
100
232000
2000
„Eine australische Studie von 2001 fand heraus,
04:09
foundgefunden that oliveOlive oilÖl in combinationKombination with fruitsFrüchte, vegetablesGemüse and pulsesImpulse
101
234000
2000
dass Olivenöl in Kombination mit Früchten, Gemüse und Hülsenfrüchten
04:11
offersbietet an measurablemessbare protectionSchutz againstgegen skinHaut wrinklingswrinklings."
102
236000
2000
messbaren Schutz gegen Hautfaltenbildung bietet.
04:13
And then they give you adviceRat:
103
238000
2000
Und dann geben sie Ihnen den Rat:
04:15
"If you eatEssen oliveOlive oilÖl and vegetablesGemüse, you'lldu wirst have fewerweniger skinHaut wrinklesFalten."
104
240000
2000
„Wenn Sie Olivenöl und Gemüse essen, werden Sie weniger Hautfalten haben."
04:17
And they very helpfullyhilfreich tell you how to go and find the paperPapier-.
105
242000
2000
Und sie sagen Ihnen sehr hilfsbereit, wie Sie den Fachartikel finden können.
04:19
So you go and find the paperPapier-, and what you find is an observationalBeobachtungsdaten studyStudie.
106
244000
3000
Sie finden also den Artikel, und was Sie finden, ist eine Beobachtungsstudie.
04:22
ObviouslyOffensichtlich nobodyniemand has been ablefähig
107
247000
2000
Offensichtlich war niemand in der Lage,
04:24
to go back to 1930,
108
249000
2000
in das Jahr 1930 zurückzugehen,
04:26
get all the people borngeboren in one maternityMutterschaft unitEinheit,
109
251000
3000
alle Leute, die in einer Entbindungsstation geboren worden sind, herzunehmen,
04:29
and halfHälfte of them eatEssen lots of fruitFrucht and vegveg and oliveOlive oilÖl,
110
254000
2000
und die Hälfte von ihnen viel Obst, Gemüse und Olivenöl,
04:31
and then halfHälfte of them eatEssen McDonald'sMcDonald's,
111
256000
2000
und die andere Hälfte McDonald's essen zu lassen,
04:33
and then we see how manyviele wrinklesFalten you've got laterspäter.
112
258000
2000
um zu sehen, wie viele Falten sie später haben.
04:35
You have to take a snapshotSchnappschuss of how people are now.
113
260000
2000
Man müsste einen Schnappschuss davon machen, wie die Leute heute aussehen.
04:37
And what you find is, of courseKurs,
114
262000
2000
Und was man herausfindet, ist natürlich,
04:39
people who eatEssen vegveg and oliveOlive oilÖl have fewerweniger skinHaut wrinklesFalten.
115
264000
3000
dass Leute, die Gemüse und Olivenöl essen, weniger Hautfalten haben.
04:42
But that's because people who eatEssen fruitFrucht and vegveg and oliveOlive oilÖl,
116
267000
3000
Aber das ist, weil die Leute, die Obst, Gemüse und Olivenöl essen,
04:45
they're freaksFreaks, they're not normalnormal, they're like you;
117
270000
3000
Freaks sind; Sie sind nicht normal, sie sind wie Sie:
04:48
they come to eventsVeranstaltungen like this.
118
273000
2000
sie kommen zu Veranstaltungen wie dieser.
04:50
They are poshPosh, they're wealthywohlhabend, they're lessWeniger likelywahrscheinlich to have outdoorim freien jobsArbeitsplätze,
119
275000
3000
Sie sind vornehm, sie sind wohlhabend. Sie arbeiten weniger wahrscheinlich im Freien,
04:53
they're lessWeniger likelywahrscheinlich to do manualHandbuch laborArbeit,
120
278000
2000
sie verrichten weniger wahrscheinlich Handarbeiten,
04:55
they have better socialSozial supportUnterstützung, they're lessWeniger likelywahrscheinlich to smokeRauch --
121
280000
2000
sie haben bessere soziale Betreuung, sie rauchen weniger wahrscheinlich –
04:57
so for a wholeganze hostGastgeber of fascinatingfaszinierend, interlockingStellwerk
122
282000
2000
es ist also wegen einer ganzen Heerschar faszinierender, ineinander greifender
04:59
socialSozial, politicalpolitisch and culturalkulturell reasonsGründe dafür,
123
284000
2000
sozialer, politischer und kultureller Gründe,
05:01
they are lessWeniger likelywahrscheinlich to have skinHaut wrinklesFalten.
124
286000
2000
dass sie weniger wahrscheinlich Hautfalten haben.
05:03
That doesn't mean that it's the vegetablesGemüse or the oliveOlive oilÖl.
125
288000
2000
Das heißt nicht, dass es das Gemüse oder das Olivenöl sind.
05:05
(LaughterLachen)
126
290000
2000
(Gelächter)
05:07
So ideallyim Idealfall what you want to do is a trialVersuch.
127
292000
3000
Idealerweise sollte man ein Experiment machen.
05:10
And everybodyjeder thinksdenkt they're very familiarfamiliär with the ideaIdee of a trialVersuch.
128
295000
2000
Jeder denkt, er sei mit dem Konzept eines Experiments total vertraut.
05:12
TrialsStudien are very oldalt. The first trialVersuch was in the BibleBibel -- DanielDanke. 1:12.
129
297000
3000
Experimente sind sehr alt. Das erste Experiment war in der Bibel: Daniel 1:12.
05:15
It's very straightforwardeinfach -- you take a bunchBündel of people, you splitTeilt them in halfHälfte,
130
300000
2000
Es ist ganz einfach: man nehme eine Gruppe von Menschen und teile sie in zwei Teile.
05:17
you treatbehandeln one groupGruppe one way, you treatbehandeln the other groupGruppe the other way,
131
302000
2000
Sie behandeln die eine Gruppe auf eine Weise, und die andere auf eine andere Weise,
05:19
and a little while laterspäter, you followFolgen them up
132
304000
2000
und ein Weilchen später verfolgen Sie sie weiter
05:21
and see what happenedpassiert to eachjede einzelne of them.
133
306000
2000
und schauen, was aus jeder von ihnen geworden ist.
05:23
So I'm going to tell you about one trialVersuch,
134
308000
2000
Ich erzähle Ihnen also von einem Experiment,
05:25
whichwelche is probablywahrscheinlich the mostdie meisten well-reportedgut berichtet trialVersuch
135
310000
2000
das das wahrscheinlich am meisten berichtete Experiment
05:27
in the U.K. newsNachrichten mediaMedien over the pastVergangenheit decadeDekade.
136
312000
2000
in den Nachrichtenmedien in Großbritannien der letzten zehn Jahre ist.
05:29
And this is the trialVersuch of fishFisch oilÖl pillsPillen.
137
314000
2000
Und das ist das Experiment mit den Fischölkapseln.
05:31
And the claimAnspruch was fishFisch oilÖl pillsPillen improveverbessern schoolSchule performancePerformance and behaviorVerhalten
138
316000
2000
Die Behauptung war, dass Fischölkapseln Schulleistungen und -verhalten
05:33
in mainstreamMainstream childrenKinder.
139
318000
2000
von Durchschnittskindern verbessern.
05:35
And they said, "We'veWir haben doneerledigt a trialVersuch.
140
320000
2000
Und sie sagten: „Wir haben ein Experiment gemacht.
05:37
All the previousbisherige trialsVersuche were positivepositiv, and we know this one'sEinsen gonna be too."
141
322000
2000
All die vorhergegangenen Experimente waren positiv, und wir wissen, dass es dieses auch sein wird."
05:39
That should always ringRing alarmAlarm bellsGlocken.
142
324000
2000
Das sollte immer die Alarmglocken auslösen.
05:41
Because if you alreadybereits know the answerAntworten to your trialVersuch, you shouldn'tsollte nicht be doing one.
143
326000
3000
Denn wenn Sie bereits die Antwort Ihres Versuches kennen, sollten Sie keinen machen.
05:44
EitherEntweder you've riggedmanipulierten it by designEntwurf,
144
329000
2000
Entweder haben Sie ihn durch gewollte Maßnahmen manipuliert,
05:46
or you've got enoughgenug dataDaten so there's no need to randomizerandomisieren people anymorenicht mehr.
145
331000
3000
oder Sie haben genügend Daten, dass es nicht mehr nötig ist, willkürlich Menschen auszuwählen.
05:49
So this is what they were going to do in theirihr trialVersuch.
146
334000
3000
Das ist es also, was sie in ihrem Experiement tun wollten.
05:52
They were takingunter 3,000 childrenKinder,
147
337000
2000
Sie nahmen 3.000 Kinder,
05:54
they were going to give them all these hugeenorm fishFisch oilÖl pillsPillen,
148
339000
2000
und wollten ihnen allen diese riesigen Fischölkapseln geben.
05:56
sixsechs of them a day,
149
341000
2000
Sechs davon am Tag.
05:58
and then a yearJahr laterspäter, they were going to measuremessen theirihr schoolSchule examPrüfung performancePerformance
150
343000
3000
Und dann, ein Jahr später, wollten sie ihre Leistungen in Schulprüfungen messen
06:01
and comparevergleichen theirihr schoolSchule examPrüfung performancePerformance
151
346000
2000
und diese wiederum mit der Vorhersage
06:03
againstgegen what they predictedvorhergesagt theirihr examPrüfung performancePerformance would have been
152
348000
2000
ihrer Leistungen vergleichen
06:05
if they hadn'thatte nicht had the pillsPillen.
153
350000
3000
wenn sie die Pillen nicht genommen hätten.
06:08
Now can anybodyirgendjemand spotStelle a flawFehler in this designEntwurf?
154
353000
3000
Kann irgendjemand einen Makel in diesem Design entdecken?
06:11
And no professorsProfessoren of clinicalklinisch trialVersuch methodologyMethodik
155
356000
3000
Und keine Professoren klinischer Versuchsmethoden
06:14
are alloweddürfen to answerAntworten this questionFrage.
156
359000
2000
dürfen diese Frage beantworten.
06:16
So there's no controlsteuern; there's no controlsteuern groupGruppe.
157
361000
2000
Es gibt also keine Kontrolle, keine Kontrollgruppe.
06:18
But that soundsGeräusche really techieTechnikfreak.
158
363000
2000
Aber es klingt wirklich technisch.
06:20
That's a technicaltechnisch termBegriff.
159
365000
2000
Es ist ein technischer Begriff.
06:22
The kidsKinder got the pillsPillen, and then theirihr performancePerformance improvedverbessert.
160
367000
2000
Die Kinder bekamen die Pillen, und ihre Leistungen verbesserten sich.
06:24
What elsesonst could it possiblymöglicherweise be if it wasn'twar nicht the pillsPillen?
161
369000
3000
Was sonst als die Pillen hätte es auch sonst sein können?
06:27
They got olderälter. We all developentwickeln over time.
162
372000
3000
Sie wurden älter. Wir alle entwickeln uns mit der Zeit.
06:30
And of courseKurs, alsoebenfalls there's the placeboPlacebo effectbewirken.
163
375000
2000
Und selbstverständlich ist da auch der Placeboeffekt.
06:32
The placeboPlacebo effectbewirken is one of the mostdie meisten fascinatingfaszinierend things in the wholeganze of medicineMedizin.
164
377000
2000
Der Placeboeffekt ist eines der faszinierendsten Dinge in der gesamten Welt der Medizin.
06:34
It's not just about takingunter a pillPille, and your performancePerformance and your painSchmerz gettingbekommen better.
165
379000
3000
Es geht nicht nur darum, eine Pille zu nehmen und Ihre Leistungen und ihre Schmerzen werden besser.
06:37
It's about our beliefsÜberzeugungen and expectationsErwartungen.
166
382000
2000
Es geht um unsere Überzeugungen und Erwartungen.
06:39
It's about the culturalkulturell meaningBedeutung of a treatmentBehandlung.
167
384000
2000
Es geht um die kulturelle Bedeutung einer Behandlung.
06:41
And this has been demonstratedgezeigt in a wholeganze raftFloß of fascinatingfaszinierend studiesStudien
168
386000
3000
Und das wurde in einer ganzen Menge faszinierender Studien demonstriert,
06:44
comparingVergleichen one kindArt of placeboPlacebo againstgegen anotherein anderer.
169
389000
3000
die eine Art von Placebo mit einer anderen vergleichen.
06:47
So we know, for exampleBeispiel, that two sugarZucker pillsPillen a day
170
392000
2000
Wir wissen also zum Beispiel, dass zwei Zuckerpillen am Tag
06:49
are a more effectiveWirksam treatmentBehandlung for gettingbekommen ridloswerden of gastricMagen- ulcersGeschwüre
171
394000
2000
ein effektiveres Verfahren sind, um Magengeschwüre loszuwerden
06:51
than one sugarZucker pillPille.
172
396000
2000
als eine Zuckerpille.
06:53
Two sugarZucker pillsPillen a day beatsschlägt one sugarZucker pillPille a day.
173
398000
2000
Zwei Zuckerpillen pro Tag besiegt eine Zuckerpille pro Tag.
06:55
And that's an outrageousempörend and ridiculouslächerlich findingErgebnis, but it's truewahr.
174
400000
3000
Und das ist eine empörende und lächerliche Erkenntnis, aber sie ist wahr.
06:58
We know from threedrei differentanders studiesStudien on threedrei differentanders typesTypen of painSchmerz
175
403000
2000
Wir wissen aus drei verschiedenen Studien über drei verschiedene Arten von Schmerz,
07:00
that a saltwaterSalzwasser injectionInjektion is a more effectiveWirksam treatmentBehandlung for painSchmerz
176
405000
3000
dass eine Salzwasserinjektion eine effektivere Behandlung für Schmerz ist
07:03
than takingunter a sugarZucker pillPille, takingunter a dummyDummy pillPille that has no medicineMedizin in it --
177
408000
4000
als eine Zuckerpille zu nehmen, eine Pillenattrappe, die keine Medizin beinhaltet –
07:07
not because the injectionInjektion or the pillsPillen do anything physicallyphysisch to the bodyKörper,
178
412000
3000
nicht, weil die Injektion oder die Pillen irgendeine Wirkung auf den Körper hätten,
07:10
but because an injectionInjektion feelsfühlt sich like a much more dramaticdramatisch interventionIntervention.
179
415000
3000
sondern weil eine Spritze sich wie ein viel dramatischerer Eingriff anfühlt.
07:13
So we know that our beliefsÜberzeugungen and expectationsErwartungen
180
418000
2000
Wir wissen also, dass unsere Überzeugungen und Erwartungen
07:15
can be manipulatedmanipuliert,
181
420000
2000
manipuliert werden können,
07:17
whichwelche is why we do trialsVersuche
182
422000
2000
was der Grund dafür ist, dass wir Versuche machen,
07:19
where we controlsteuern againstgegen a placeboPlacebo --
183
424000
2000
in denen wir die Ergebnisse mit denen eines Placebos vergleichen –
07:21
where one halfHälfte of the people get the realecht treatmentBehandlung
184
426000
2000
in denen eine Hälfte der Leute eine wirkliche Behandlung
07:23
and the other halfHälfte get placeboPlacebo.
185
428000
2000
und die andere Hälfte ein Placebo bekommen.
07:25
But that's not enoughgenug.
186
430000
3000
Aber das ist nicht genug.
07:28
What I've just showngezeigt you are examplesBeispiele of the very simpleeinfach and straightforwardeinfach waysWege
187
433000
3000
Was ich Ihnen gerade gezeigt habe, sind Beispiele von ganz einfachen und offenen Methoden,
07:31
that journalistsJournalisten and foodLebensmittel supplementErgänzung pillPille peddlersHausierer
188
436000
2000
wie Journalisten, Nahrungsergänzungsmittelhändler
07:33
and naturopathsHeilpraktiker
189
438000
2000
und Naturheilkundige
07:35
can distortverzerren evidenceBeweise for theirihr ownbesitzen purposesZwecke.
190
440000
3000
die Beweise für ihre eigenen Zwecke verdrehen können.
07:38
What I find really fascinatingfaszinierend
191
443000
2000
Was ich echt faszinierend finde ist,
07:40
is that the pharmaceuticalPharma industryIndustrie
192
445000
2000
dass die Pharmaindustrie
07:42
usesVerwendungen exactlygenau the samegleich kindsArten of tricksTricks and devicesGeräte,
193
447000
2000
sich ganz genau der gleichen Tricks und Hilfsmittel bedient,
07:44
but slightlyleicht more sophisticatedanspruchsvoll versionsVersionen of them,
194
449000
3000
aber leicht ausgeklügelteren Versionen davon,
07:47
in orderAuftrag to distortverzerren the evidenceBeweise that they give to doctorsÄrzte and patientsPatienten,
195
452000
3000
um die Beweise, die sie Ärzten und Patienten geben, zu verzerren,
07:50
and whichwelche we use to make vitallyvon entscheidender importantwichtig decisionsEntscheidungen.
196
455000
3000
und die wir benutzen, um Entscheidungen auf Leben und Tod zu treffen.
07:53
So firstlyerstens, trialsVersuche againstgegen placeboPlacebo:
197
458000
2000
Also, erstens, Versuche gegen Placebos:
07:55
everybodyjeder thinksdenkt they know that a trialVersuch should be
198
460000
2000
jeder denkt, er wisse, dass ein Versuch
07:57
a comparisonVergleich of your newneu drugDroge againstgegen placeboPlacebo.
199
462000
2000
ein Vergleich eines neuen Medikamentes mit einem Placebo sein sollte.
07:59
But actuallytatsächlich in a lot of situationsSituationen that's wrongfalsch.
200
464000
2000
Aber das ist in vielen Fällen falsch.
08:01
Because oftenhäufig we alreadybereits have a very good treatmentBehandlung that is currentlyzur Zeit availableverfügbar,
201
466000
3000
Denn oft haben wir bereits eine sehr gute Behandlung, die derzeit zur Verfügung steht,
08:04
so we don't want to know that your alternativeAlternative newneu treatmentBehandlung
202
469000
2000
wir wollen also nicht wissen, dass Ihre alternative, neue Behandlung
08:06
is better than nothing.
203
471000
2000
besser als nichts ist.
08:08
We want to know that it's better than the bestBeste currentlyzur Zeit availableverfügbar treatmentBehandlung that we have.
204
473000
3000
Wir wollen wissen, dass es besser ist als das beste derzeit vorhandene Medikament, das wir haben.
08:11
And yetnoch, repeatedlywiederholt, you consistentlykonsequent see people doing trialsVersuche
205
476000
3000
Und trotzdem sehen Sie immer wieder Leute, die Versuche
08:14
still againstgegen placeboPlacebo.
206
479000
2000
einem Placebo gegenüberstellen.
08:16
And you can get licenseLizenz to bringbringen your drugDroge to marketMarkt
207
481000
2000
Und Sie können die Lizenz, Ihr Medikament auf den Markt zu bringen,
08:18
with only dataDaten showingzeigt that it's better than nothing,
208
483000
2000
nur mit Daten bekommen, die zeigen dass es besser ist als nichts,
08:20
whichwelche is uselessnutzlos for a doctorArzt like me tryingversuchen to make a decisionEntscheidung.
209
485000
3000
was für einen Arzt wie mich, der versucht, eine Entscheidung zu treffen, unnütz ist.
08:23
But that's not the only way you can rigRig your dataDaten.
210
488000
2000
Aber das ist nicht die einzige Art und Weise, wie man Daten manipulieren kann.
08:25
You can alsoebenfalls rigRig your dataDaten
211
490000
2000
Man kann Daten auch manipulieren,
08:27
by makingHerstellung the thing you comparevergleichen your newneu drugDroge againstgegen
212
492000
2000
indem man das, womit man sein neues Medikamet vergleicht,
08:29
really rubbishMüll.
213
494000
2000
wirklich schlecht macht.
08:31
You can give the competingim Wettbewerb drugDroge in too lowniedrig a doseDosis,
214
496000
2000
Man kann das konkurrierende Medikament in zu niedrigen Dosen verabreichen,
08:33
so that people aren'tsind nicht properlyrichtig treatedbehandelt.
215
498000
2000
so dass die Leute nicht richtig behandelt werden.
08:35
You can give the competingim Wettbewerb drugDroge in too highhoch a doseDosis,
216
500000
2000
Man kann das konkurrierende Medikament in zu hohen Dosen verabreichen,
08:37
so that people get sideSeite effectsAuswirkungen.
217
502000
2000
so dass die Leute Nebenwirkungen bekommen.
08:39
And this is exactlygenau what happenedpassiert
218
504000
2000
Und genau das ist
08:41
whichwelche antipsychoticNeuroleptika medicationMedikation for schizophreniaSchizophrenie.
219
506000
2000
mit Psychopharmaka gegen Schizophrenie passiert.
08:43
20 yearsJahre agovor, a newneu generationGeneration of antipsychoticNeuroleptika drugsDrogen were broughtgebracht in
220
508000
3000
Vor 20 Jahren wurde eine neue Generation von Psychopharmaka eingeführt,
08:46
and the promiseversprechen was that they would have fewerweniger sideSeite effectsAuswirkungen.
221
511000
3000
die versprachen, dass sie weniger Nebenwirkungen hätten.
08:49
So people setSet about doing trialsVersuche of these newneu drugsDrogen
222
514000
2000
Die Leute machten sich also daren, Versuche mit diesen neuen Medikamenten
08:51
againstgegen the oldalt drugsDrogen,
223
516000
2000
im Vergleich mit den alten Medikamenten durchzuführen,
08:53
but they gavegab the oldalt drugsDrogen in ridiculouslylächerlich highhoch dosesDosen --
224
518000
2000
aber sie verabreichten die alten Medikamente in lächerlich hohen Dosen –
08:55
20 milligramsMilligramm a day of haloperidolHaloperidol.
225
520000
2000
20 Milligramm Haloperidol am Tag.
08:57
And it's a foregoneverzichtet conclusionSchlussfolgerung,
226
522000
2000
Es ist ein vorgefasster Schluss,
08:59
if you give a drugDroge at that highhoch a doseDosis,
227
524000
2000
wenn man ein Medikament in einer solch hohen Dosis verabreicht,
09:01
that it will have more sideSeite effectsAuswirkungen and that your newneu drugDroge will look better.
228
526000
3000
dass es mehr Nebenwirkungen haben wird, und dass Ihr neues Medikament besser aussehen wird.
09:04
10 yearsJahre agovor, historyGeschichte repeatedwiederholt itselfselbst, interestinglyinteressant,
229
529000
2000
Vor zehn Jahren hat sich die Geschichte interessanterweise wiederholt,
09:06
when risperidoneRisperidon, whichwelche was the first of the new-generationneue generation antipscyhoticantipscyhotic drugsDrogen,
230
531000
3000
als Risperidon, welches das erste Medikament einer neuen Generation Psychopharmaka war,
09:09
camekam off copyrightUrheberrechte ©, so anybodyirgendjemand could make copiesKopien.
231
534000
3000
sein Copyright verlor, also jeder Kopien machen konnte.
09:12
EverybodyAlle wanted to showShow that theirihr drugDroge was better than risperidoneRisperidon,
232
537000
2000
Jeder wollte zeigen, dass sein Medikament besser als Risperidon war,
09:14
so you see a bunchBündel of trialsVersuche comparingVergleichen newneu antipsychoticNeuroleptika drugsDrogen
233
539000
3000
und so können Sie eine Reihe von Versuchen sehen, die neue Psychopharmaka
09:17
againstgegen risperidoneRisperidon at eightacht milligramsMilligramm a day.
234
542000
2000
mit Risperidon in der Dosis von acht Milligramm pro Tag vergleichen.
09:19
Again, not an insanewahnsinnig doseDosis, not an illegalillegal doseDosis,
235
544000
2000
Und wieder: das ist keine irrsinnige Dosis, keine illegale Dosis,
09:21
but very much at the highhoch endEnde of normalnormal.
236
546000
2000
aber ganz nah an der Höchstgrenze vom Normalen.
09:23
And so you're boundgebunden to make your newneu drugDroge look better.
237
548000
3000
Und so kommen sie nicht umhin, ihr neues Medikament besser zu machen.
09:26
And so it's no surpriseüberraschen that overallinsgesamt,
238
551000
3000
Daher ist es nicht überraschend,
09:29
industry-fundedIndustrie finanzierte- trialsVersuche
239
554000
2000
dass von der Industrie finanzierte Versuche im Großen und Ganzen
09:31
are fourvier timesmal more likelywahrscheinlich to give a positivepositiv resultErgebnis
240
556000
2000
eine viermal so große Wahrscheinlichkeit haben, positiv auszufallen
09:33
than independentlyunabhängig sponsoredgesponsert trialsVersuche.
241
558000
3000
als unabhängige Versuche.
09:36
But -- and it's a biggroß but --
242
561000
3000
Aber – und das ist ein großes Aber –
09:39
(LaughterLachen)
243
564000
2000
(Gelächter)
09:41
it turnswendet sich out,
244
566000
2000
es stellt sich heraus, dass,
09:43
when you look at the methodsMethoden used by industry-fundedIndustrie finanzierte- trialsVersuche,
245
568000
3000
wenn man sich die Methoden der industriefinanzierten Versuche ansieht,
09:46
that they're actuallytatsächlich better
246
571000
2000
sie tatsächlich besser
09:48
than independentlyunabhängig sponsoredgesponsert trialsVersuche.
247
573000
2000
als die der unabhängigen Versuche sind.
09:50
And yetnoch, they always manageverwalten to to get the resultErgebnis that they want.
248
575000
3000
Und trotzdem schaffen sie es immer, die Resultate zu bekommen, die sie wollen.
09:53
So how does this work?
249
578000
2000
Wie funktioniert das?
09:55
How can we explainerklären this strangekomisch phenomenonPhänomen?
250
580000
3000
Wie können wir dieses seltsame Phänomen erklären?
09:58
Well it turnswendet sich out that what happensdas passiert
251
583000
2000
Nun, es erweist sich, dass
10:00
is the negativeNegativ dataDaten goesgeht missingfehlt in actionAktion;
252
585000
2000
negative Daten verlorengehen;
10:02
it's withheldeinbehaltene from doctorsÄrzte and patientsPatienten.
253
587000
2000
sie werden den Ärzten und Patienten vorenthalten.
10:04
And this is the mostdie meisten importantwichtig aspectAspekt of the wholeganze storyGeschichte.
254
589000
2000
Und das ist der wichtigste Aspekt der ganzen Geschichte.
10:06
It's at the topoben of the pyramidPyramide of evidenceBeweise.
255
591000
2000
Das ist die Spitze der Beweispyramide.
10:08
We need to have all of the dataDaten on a particularinsbesondere treatmentBehandlung
256
593000
3000
Wir brauchen alle Daten über eine jeweilige Behandlung
10:11
to know whetherob or not it really is effectiveWirksam.
257
596000
2000
um zu wissen, ob sie wirksam ist oder nicht.
10:13
And there are two differentanders waysWege that you can spotStelle
258
598000
2000
Es gibt zwei verschidene Möglichkeiten zu erkennen,
10:15
whetherob some dataDaten has goneWeg missingfehlt in actionAktion.
259
600000
2000
ob einige Daten verlorengegangen sind.
10:17
You can use statisticsStatistiken, or you can use storiesGeschichten.
260
602000
3000
Sie können Statistiken benutzen, oder Geschichten.
10:20
I personallypersönlich preferbevorzugen statisticsStatistiken, so that's what I'm going to do first.
261
605000
2000
Ich persönlich bevorzuge Statistiken, also rede ich darüber zuerst.
10:22
This is something callednamens funnelTrichter plotHandlung.
262
607000
2000
Das hier nennt man einen Funnel Plot.
10:24
And a funnelTrichter plotHandlung is a very cleverklug way of spottingSpotting
263
609000
2000
Ein Funnel Plot ist ein ganz schlaues Verfahren um zu erkunden,
10:26
if smallklein negativeNegativ trialsVersuche have disappearedverschwunden, have goneWeg missingfehlt in actionAktion.
264
611000
3000
ob kleine negative Versuche verschwunden sind, verloren gegangen sind.
10:29
So this is a graphGraph of all of the trialsVersuche
265
614000
2000
Das ist also eine Grafik aller Versuche,
10:31
that have been doneerledigt on a particularinsbesondere treatmentBehandlung.
266
616000
2000
die über eine bestimmte Behandlung gemacht worden sind.
10:33
And as you go up towardsin Richtung the topoben of the graphGraph,
267
618000
2000
Wenn Sie nun nach oben gehen zur Spitze hin,
10:35
what you see is eachjede einzelne dotPunkt is a trialVersuch.
268
620000
2000
sehen Sie, dass jeder Punkt ein Versuch ist.
10:37
And as you go up, those are the biggergrößer trialsVersuche, so they'veSie haben got lessWeniger errorError in them.
269
622000
3000
Je weiter Sie nach oben kommen, desto größer sind die Versuche, sie haben also weniger Fehler.
10:40
So they're lessWeniger likelywahrscheinlich to be randomlynach dem Zufallsprinzip falsefalsch positivesPositive, randomlynach dem Zufallsprinzip falsefalsch negativesNegative.
270
625000
3000
Sie haben eine kleinere Wahrscheinlichkeit, zufällige falsche Positive oder Negative zu sein.
10:43
So they all clusterCluster togetherzusammen.
271
628000
2000
Sie drängen sich also alle aneinander.
10:45
The biggroß trialsVersuche are closernäher to the truewahr answerAntworten.
272
630000
2000
Die großen Versuche sind näher an der wahren Antwort.
10:47
Then as you go furtherdes Weiteren down at the bottomBoden,
273
632000
2000
Wenn Sie nun weiter nach unten gehen,
10:49
what you can see is, over on this sideSeite, the spuriousUnechte falsefalsch negativesNegative,
274
634000
3000
dann sehen Sie hier, auf dieser Seite, die gefälschten falschen Negative
10:52
and over on this sideSeite, the spuriousUnechte falsefalsch positivesPositive.
275
637000
2000
und auf der Seite die gefälschten falschen Positive.
10:54
If there is publicationVeröffentlichung biasvorspannen,
276
639000
2000
Falls die Publikation Messabweichungen hat,
10:56
if smallklein negativeNegativ trialsVersuche have goneWeg missingfehlt in actionAktion,
277
641000
3000
wenn kleine, negative Versuche verlorengegangen sind,
10:59
you can see it on one of these graphsDiagramme.
278
644000
2000
kann man das auf einer dieser Graphiken sehen.
11:01
So you can see here that the smallklein negativeNegativ trialsVersuche
279
646000
2000
Sie können hier sehen, dass die kleinen negativen Versuche,
11:03
that should be on the bottomBoden left have disappearedverschwunden.
280
648000
2000
die unten links sein sollten, verschwunden sind.
11:05
This is a graphGraph demonstratingdemonstrieren the presenceGegenwart of publicationVeröffentlichung biasvorspannen
281
650000
3000
Das ist eine Graphik, die die Präsenz von Messabweichungen
11:08
in studiesStudien of publicationVeröffentlichung biasvorspannen.
282
653000
2000
in Studien von Publizierungsabweichungen demonstriert.
11:10
And I think that's the funniestam lustigsten epidemiologyEpidemiologie jokeWitz
283
655000
2000
Ich denke, dass das der lustigste epidemiologische Witz ist,
11:12
that you will ever hearhören.
284
657000
2000
denn Sie jemals hören werden.
11:14
That's how you can provebeweisen it statisticallystatistisch,
285
659000
2000
Das ist es, wie Sie es statistisch beweisen können,
11:16
but what about storiesGeschichten?
286
661000
2000
aber wie ist das mit den Geschichten?
11:18
Well they're heinousabscheulichen, they really are.
287
663000
2000
Nun, die sind wirklich abscheulich.
11:20
This is a drugDroge callednamens reboxetineReboxetin.
288
665000
2000
Das ist ein Medikament, das Reboxetin heißt.
11:22
This is a drugDroge that I myselfmich selber have prescribedvorgeschriebenen to patientsPatienten.
289
667000
2000
Es ist ein Medikament, dass ich selber Patienten verschrieben habe.
11:24
And I'm a very nerdyNerdy doctorArzt.
290
669000
2000
Und ich bin ein Streber-Arzt.
11:26
I hopeHoffnung I try to go out of my way to try and readlesen and understandverstehen all the literatureLiteratur.
291
671000
3000
Ich versuche wirklich, alle Mühen auf mich zu nehmen und alle Literatur zu lesen und zu verstehen.
11:29
I readlesen the trialsVersuche on this. They were all positivepositiv. They were all well-conductedgut durchgeführte.
292
674000
3000
Ich habe die Versuche daran gelesen. Sie waren alle positiv. Sie waren alle gut ausgeführt.
11:32
I foundgefunden no flawFehler.
293
677000
2000
Ich fand keine Makel.
11:34
UnfortunatelyLeider, it turnedgedreht out,
294
679000
2000
Leider stellte sich heraus,
11:36
that manyviele of these trialsVersuche were withheldeinbehaltene.
295
681000
2000
dass viele dieser Experimente zurückgehalten wurden.
11:38
In factTatsache, 76 percentProzent
296
683000
2000
Und zwar wurden 76 Prozent
11:40
of all of the trialsVersuche that were doneerledigt on this drugDroge
297
685000
2000
aller Experimente, die an diesem Medikament gemacht wurden,
11:42
were withheldeinbehaltene from doctorsÄrzte and patientsPatienten.
298
687000
2000
den Ärzten und Patienten vorenthalten.
11:44
Now if you think about it,
299
689000
2000
Wenn Sie nun darüber nachdenken,
11:46
if I tossedgeworfen a coinMünze a hundredhundert timesmal,
300
691000
2000
wenn ich eine Münze hundert Mal würfe,
11:48
and I'm alloweddürfen to withholdzurückhalten from you
301
693000
2000
und ich Ihnen die Antworten zur Hälfte
11:50
the answersAntworten halfHälfte the timesmal,
302
695000
2000
vorenthalten dürfte,
11:52
then I can convinceüberzeugen you
303
697000
2000
dann kann ich Sie davon überzeugen,
11:54
that I have a coinMünze with two headsKöpfe.
304
699000
2000
dass ich eine Münze mit zwei Köpfen habe.
11:56
If we removeentfernen halfHälfte of the dataDaten,
305
701000
2000
Wenn wir die Hälfte der Daten beseitigen,
11:58
we can never know what the truewahr effectbewirken sizeGröße of these medicinesMedikamente is.
306
703000
3000
können wir nie wissen, was die wahre Effektgröße dieser Medikamente ist.
12:01
And this is not an isolatedisoliert storyGeschichte.
307
706000
2000
Und das ist keine isolierte Geschichte.
12:03
Around halfHälfte of all of the trialVersuch dataDaten on antidepressantsAntidepressiva has been withheldeinbehaltene,
308
708000
4000
Ungefähr die Hälfte aller Versuchsdaten über Antidepressiva wurde zurückgehalten,
12:07
but it goesgeht way beyonddarüber hinaus that.
309
712000
2000
aber es geht noch viel weiter.
12:09
The NordicNordic CochraneCochrane GroupGruppe were tryingversuchen to get a holdhalt of the dataDaten on that
310
714000
2000
Die Noric Cochrane Group versuchte, die fehlenden Daten zu bekommen,
12:11
to bringbringen it all togetherzusammen.
311
716000
2000
um alle zusammenzuführen.
12:13
The CochraneCochrane GroupsGruppen are an internationalInternational nonprofitgemeinnützig collaborationZusammenarbeit
312
718000
3000
Die Cochrane Groups sind ein internationaler gemeinnütziger Zusammenschluss,
12:16
that produceproduzieren systematicsystematische reviewsBewertungen zu der Unterkunft of all of the dataDaten that has ever been showngezeigt.
313
721000
3000
der systematische Bewertungen aller Daten, die jemals veröffentlicht wurden, produziert.
12:19
And they need to have accessZugriff to all of the trialVersuch dataDaten.
314
724000
3000
Sie brauchen den Zugang zu allen Versuchsdaten.
12:22
But the companiesFirmen withheldeinbehaltene that dataDaten from them,
315
727000
3000
Aber die Firmen hielten Daten vor ihnen zurück,
12:25
and so did the EuropeanEuropäische MedicinesMedikamente AgencyAgentur
316
730000
2000
und auch die Europäische Arzneimittelagentur,
12:27
for threedrei yearsJahre.
317
732000
2000
während dreier Jahre.
12:29
This is a problemProblem that is currentlyzur Zeit lackingfehlend a solutionLösung.
318
734000
3000
Das ist ein Problem, für das es derzeit keine Lösung gibt.
12:32
And to showShow how biggroß it goesgeht, this is a drugDroge callednamens TamifluTamiflu,
319
737000
3000
Um Ihnen zu zeigen, welche Ausmaße das hat: das ist ein Medikament namens Tamiflu,
12:35
whichwelche governmentsRegierungen around the worldWelt
320
740000
2000
für das Regierungen in aller Welt
12:37
have spentverbraucht billionsMilliarden and billionsMilliarden of dollarsDollar on.
321
742000
2000
Milliarden und Milliarden von Dollar ausgegeben haben.
12:39
And they spendverbringen that moneyGeld on the promiseversprechen
322
744000
2000
Sie bezahlten dieses Geld für das Versprechen,
12:41
that this is a drugDroge whichwelche will reducereduzieren the ratePreis
323
746000
2000
dass dies ein Medikament ist, das den Anteil
12:43
of complicationsKomplikationen with fluGrippe.
324
748000
2000
der Komplikationen der Grippe verringert.
12:45
We alreadybereits have the dataDaten
325
750000
2000
Wir haben die Daten bereits,
12:47
showingzeigt that it reducesreduziert the durationDauer of your fluGrippe by a fewwenige hoursStd..
326
752000
2000
die zeigen, dass es die Dauer Ihrer Grippe um ein paar Stunden verkürzt.
12:49
But I don't really carePflege about that. GovernmentsRegierungen don't carePflege about that.
327
754000
2000
Aber das ist mir egal. Den Regierungen ist das egal.
12:51
I'm very sorry if you have the fluGrippe, I know it's horribleschrecklich,
328
756000
3000
Es tut mir sehr Leid, wenn Sie die Grippe haben, ich weiß, es ist schrecklich,
12:54
but we're not going to spendverbringen billionsMilliarden of dollarsDollar
329
759000
2000
aber wir werden nicht Milliarden von Dollar ausgeben,
12:56
tryingversuchen to reducereduzieren the durationDauer of your fluGrippe symptomsSymptome
330
761000
2000
um zu versuchen, die Dauer Ihrer Grippesymptome
12:58
by halfHälfte a day.
331
763000
2000
um einen halben Tag zu verringern.
13:00
We prescribevorschreiben these drugsDrogen, we stockpileVorrat them for emergenciesNotfälle
332
765000
2000
Wir verschreiben diese Medikamente, wir legen Vorräte für Notfälle an,
13:02
on the understandingVerstehen that they will reducereduzieren the numberNummer of complicationsKomplikationen,
333
767000
2000
weil wir verstehen, dass sie die Anzahl der Komplikationen verringern,
13:04
whichwelche meansmeint pneumoniaLungenentzündung and whichwelche meansmeint deathTod.
334
769000
3000
das heißt Lungenentzündung und Tod.
13:07
The infectiousinfektiöse diseasesKrankheiten CochraneCochrane GroupGruppe, whichwelche are basedbasierend in ItalyItalien,
335
772000
3000
Cochrane Group, die in Italien ansässig ist,
13:10
has been tryingversuchen to get
336
775000
2000
versuchte, die kompletten Daten
13:12
the fullvoll dataDaten in a usablenutzbare formbilden out of the drugDroge companiesFirmen
337
777000
3000
über Infektionskrankheiten in einer brauchbaren Form aus den Arzneimittelfirmen zu bekommen,
13:15
so that they can make a fullvoll decisionEntscheidung
338
780000
3000
damit sie eine komplette Entscheidung treffen kann,
13:18
about whetherob this drugDroge is effectiveWirksam or not,
339
783000
2000
ob dieses Medikament effektiv ist oder nicht,
13:20
and they'veSie haben not been ablefähig to get that informationInformation.
340
785000
3000
und sie war nicht in der Lage, diese Information zu bekommen.
13:23
This is undoubtedlyohne Zweifel
341
788000
2000
Das ist zweifellos
13:25
the singleSingle biggestgrößte ethicalethisch problemProblem
342
790000
3000
das größte ethische Problem,
13:28
facinggegenüber medicineMedizin todayheute.
343
793000
2000
das die Medizin heutzutage hat.
13:30
We cannotnicht können make decisionsEntscheidungen
344
795000
3000
Wir können keine Entscheidungen fällen,
13:33
in the absenceAbwesenheit of all of the informationInformation.
345
798000
4000
wenn wir nicht alle Informationen haben.
13:37
So it's a little bitBit difficultschwer from there
346
802000
3000
Es ist also ein bisschen schwierig von hier
13:40
to spinDreh in some kindArt of positivepositiv conclusionSchlussfolgerung.
347
805000
4000
eine Art positiven Fazits hinzudrehen.
13:44
But I would say this:
348
809000
4000
Aber ich würde das hier sagen:
13:48
I think that sunlightSonnenlicht
349
813000
3000
Ich denke, dass Sonnenlicht
13:51
is the bestBeste disinfectantDesinfektionsmittel.
350
816000
2000
das beste Desinfektionsmittel ist.
13:53
All of these things are happeningHappening in plaineinfach sightSicht,
351
818000
3000
All diese Dinge passieren ganz offen,
13:56
and they're all protectedgeschützt
352
821000
2000
und sie sind durch ein Kraftfeld
13:58
by a forceKraft fieldFeld of tediousnessLangweiligkeit.
353
823000
3000
der Langeweile geschützt.
14:01
And I think, with all of the problemsProbleme in scienceWissenschaft,
354
826000
2000
Ich denke, mit all den Problemen in der Wissenschaft,
14:03
one of the bestBeste things that we can do
355
828000
2000
ist es das Beste,
14:05
is to liftAufzug up the lidDeckel,
356
830000
2000
den Deckel hochzuheben,
14:07
fingerFinger around in the mechanicsMechanik and peerPeer in.
357
832000
2000
im Mechanismus herumzufummeln und hineinzuschauen.
14:09
Thank you very much.
358
834000
2000
Vielen Dank.
14:11
(ApplauseApplaus)
359
836000
3000
(Applaus)
Translated by Katrin Dinkel
Reviewed by Karin Friedli

▲Back to top

ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee