ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com
TEDGlobal 2011

Ben Goldacre: Battling bad science

Ben Goldacre: Sahte bilimle mücadele etmek

Filmed:
2,713,579 views

Her gün gazetelerde sağlıklı yaşam için yeni bir öneri görüyorsunuz, peki bunların doğru olup olmadığını nasıl anlayabilirsiniz? Doktor ve epidemiyolojist Ben Goldacre, hız bir sunumla bize bariz beslenme önerisi iddialarından ilaç endüstrisinin yaptığı aldatmacalara giden örneklerle, kanıtların nasıl saptırılabileceğini gösteriyor.
- Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks. Full bio

Double-click the English transcript below to play the video.

00:15
So I'm a doctordoktor, but I kindtür of slippedkaydı sidewaysyana doğru into researchAraştırma,
0
0
3000
Ben bir doktorum, ama bir şekilde biraz mesleğimden saparak araştırmacı oldum,
00:18
and now I'm an epidemiologistepidemiologist.
1
3000
2000
bu nedenle artık bir epidemiyolog'um. (Hastalık sıklıklarını inceleyen bilim dalı)
00:20
And nobodykimse really knowsbilir what epidemiologyepidemioloji is.
2
5000
2000
Ve kimse epidemiyoloji'nin ne olduğunu tam olarak bilmiyor.
00:22
EpidemiologyEpidemiyoloji is the scienceBilim of how we know in the realgerçek worldDünya
3
7000
3000
Epidemiyoloji, gerçek hayatta karşılaştığını şeylerin
00:25
if something is good for you or badkötü for you.
4
10000
2000
sizin için iyi ya da kötü olduğunu ayırdetme yoludur.
00:27
And it's besten iyi understoodanladım throughvasitasiyla exampleörnek
5
12000
2000
En iyi,saçmasapan çılgın gazete manşetlerinde
00:29
as the scienceBilim of those crazyçılgın, wackytuhaf newspapergazete headlineshaber başlıkları.
6
14000
5000
geçen ifadelerin incelenmesi ile anlaşılabilir.
00:34
And these are just some of the examplesörnekler.
7
19000
2000
Bunlar örneklerden sadece birkaçı.
00:36
These are from the DailyGünlük MailPosta. EveryHer countryülke in the worldDünya has a newspapergazete like this.
8
21000
3000
Bu gördükleriniz Daily Mail'den. Dünyadaki her ülkede buna benzer bir gazete var.
00:39
It has this bizarretuhaf, ongoingdevam eden philosophicalfelsefi projectproje
9
24000
3000
Bu gazetelerin tuhaf felsefi projeleri
00:42
of dividingbölen all the inanimatecansız objectsnesneleri in the worldDünya
10
27000
2000
dünyada aklınıza gelen herhangi bir cismi veya olayı
00:44
into the onesolanlar that eitherya causesebeb olmak or preventönlemek cancerkanser.
11
29000
3000
kansere neden olanlar veya kanserden koruyanlar olarak ikiye ayırmak.
00:47
So here are some of the things they said causesebeb olmak cancerkanser recentlyson günlerde:
12
32000
2000
Son zamanlarda kansere neden olduğunu iddia ettikleri şeylere bir bakalım:
00:49
divorceboşanma, Wi-FiWi-Fi, toiletriesbanyo malzemeleri and coffeeKahve.
13
34000
2000
boşanmak, Wi-Fi, deodorantlar ve kahve.
00:51
Here are some of the things they say preventsengeller cancerkanser:
14
36000
2000
Bunlar da kanseri engellediklerini söyledikleri şeyler:
00:53
crustskabuklar, redkırmızı pepperbiber, licoricemeyan kökü and coffeeKahve.
15
38000
2000
ekmek kabuğu, kırmızı biberü meyan kökü ve kahve.
00:55
So alreadyzaten you can see there are contradictionsçelişkiler.
16
40000
2000
Çelişkiyi şimdiden görebiliyorsunuz.
00:57
CoffeeKahve bothher ikisi de causesnedenleri and preventsengeller cancerkanser.
17
42000
2000
kahve hem kanser yapıyor hem de kanserden koruyor.
00:59
And as you startbaşlama to readokumak on, you can see
18
44000
2000
Okumaya devam ettikçe, bu iddiaların ardında
01:01
that maybe there's some kindtür of politicalsiyasi valenceValence behindarkasında some of this.
19
46000
3000
bazı politik nedenler yattığını düşünmeye bile başlayabilirsiniz.
01:04
So for womenkadınlar, houseworkev işi preventsengeller breastmeme cancerkanser,
20
49000
2000
Mesela kadınlar için, ev işi yapmak kanserden koruyucu.
01:06
but for menerkekler, shoppingalışveriş yapmak could make you impotentiktidarsız.
21
51000
3000
Erkekler ise çok alışveriş yaptıklarında iktidarsız olabiliyorlar.
01:09
So we know that we need to startbaşlama
22
54000
3000
Bu nedenle, bu iddiaların arkasaındaki bilimsel dayanağı
01:12
unpickingunpicking the scienceBilim behindarkasında this.
23
57000
3000
didklemeye başlamamız gerektiğini fark ediyorsunuz.
01:15
And what I hopeumut to showgöstermek
24
60000
2000
Size göstermeyi umduğum şey
01:17
is that unpickingunpicking dodgyçok tehlikeli claimsiddialar,
25
62000
2000
bu kurnazca iddiaları didiklerken,
01:19
unpickingunpicking the evidencekanıt behindarkasında dodgyçok tehlikeli claimsiddialar,
26
64000
2000
bu kurnaz iddiaların ardındaki bilimsel iddiları deşmek
01:21
isn't a kindtür of nastykötü carpingcarping activityaktivite;
27
66000
3000
kusur bulmak için yapılan bir aktivite değil,
01:24
it's sociallysosyal usefulişe yarar,
28
69000
2000
topluma faydalı olduğu kadar
01:26
but it's alsoAyrıca an extremelyson derece valuabledeğerli
29
71000
2000
inanılmaz derecede değerli bir
01:28
explanatoryaçıklayıcı toolaraç.
30
73000
2000
açıklayıcı araç.
01:30
Because realgerçek scienceBilim is all about
31
75000
2000
Çünkü gerçek bilim aslında
01:32
criticallyciddi olarak appraisingAppraising the evidencekanıt for somebodybirisi else'sbaşka var positionpozisyon.
32
77000
2000
bir başkasını bulunduğu konuma ait kanıtları sorgulayıcı bir şekilde değerlendirmekten ibaret.
01:34
That's what happensolur in academicakademik journalsgünlükleri.
33
79000
2000
Akademik yayınlarda olan şey budur.
01:36
That's what happensolur at academicakademik conferenceskonferanslar.
34
81000
2000
Akademik konferanslarda da bu olur.
01:38
The Q&A sessionoturum, toplantı, celse after a post-opAmeliyat sonrası presentshediyeler dataveri
35
83000
2000
Genelde veri sunumunu takiben yapılan Soru-Cevap seansı
01:40
is oftensık sık a bloodkan bathbanyo.
36
85000
2000
kan revanla biten bir savaştır.
01:42
And nobodykimse mindszihinler that. We activelyaktif welcomeHoşgeldiniz it.
37
87000
2000
Ve kimsenin buna itirazı yoktur. Aslında bunu dört gözle bekleriz.
01:44
It's like a consentingaçıklanması kabul etmiş intellectualentellektüel S&M activityaktivite.
38
89000
3000
Bir nevi entellektüel Sado-Mazo aktivitesi yani.
01:47
So what I'm going to showgöstermek you
39
92000
2000
Size burada göstereceğim şey
01:49
is all of the mainana things,
40
94000
2000
benim alanıma ait ana kavram,
01:51
all of the mainana featuresÖzellikler of my disciplinedisiplin --
41
96000
2000
ana kavramların başında geliyor--
01:53
evidence-basedkanıta dayalı medicinetıp.
42
98000
2000
kanıta-dayalı tıp.
01:55
And I will talk you throughvasitasiyla all of these
43
100000
2000
Size bunlardan bahsedeceğim ve
01:57
and demonstrategöstermek how they work,
44
102000
2000
bunların nasıl çalıştığını göstereceğim,
01:59
exclusivelysadece usingkullanma examplesörnekler of people gettingalma stuffşey wrongyanlış.
45
104000
3000
bunu, insanların nasıl olup da yanlış düşündüğüne ilişkin örnekleri göstererek yapacağım.
02:02
So we'lliyi startbaşlama with the absolutekesin weakesten zayıf formform of evidencekanıt knownbilinen to man,
46
107000
3000
Öyleyse, işe insanoğlu'nun bildiği en zayıf kanıt türü olan bir şey ile başlayalım:
02:05
and that is authorityyetki.
47
110000
2000
Otorite.
02:07
In scienceBilim, we don't carebakım how manyçok lettersharfler you have after your nameisim.
48
112000
3000
Bilim dünyasında, isminizin sonunda kaç tane ünvan olduğuyla ilgilenmeyiz.
02:10
In scienceBilim, we want to know what your reasonsnedenleri are for believinginanan something.
49
115000
3000
Bilim dünyasında, bir şeye inanıyorsanız, inanma nedenlerinizi öğrenmek isteriz.
02:13
How do you know that something is good for us
50
118000
2000
Bir şeyin bizim için iyi ya da kötü olduğunu
02:15
or badkötü for us?
51
120000
2000
nasıl oluyor da bilebiliyorsunuz?
02:17
But we're alsoAyrıca unimpressedetkilenmemiş by authorityyetki,
52
122000
2000
Aynı zamanda da otorite'den fazla etkilenmeyiz,
02:19
because it's so easykolay to contriveplanlamak.
53
124000
2000
çünkü elde etmesi çok kolaydır.
02:21
This is somebodybirisi calleddenilen DrDr. GillianGillian McKeithMcKeith PhPH.D,
54
126000
2000
Bu gördüğünüz Dr. Gillian McKetih, Ph.D.
02:23
or, to give her fulltam medicaltıbbi titleBaşlık, GillianGillian McKeithMcKeith.
55
128000
3000
Ya da eksiksiz tıbbi ünvanı ile Gillian McKeith.
02:26
(LaughterKahkaha)
56
131000
3000
(Gülüşmeler)
02:29
Again, everyher countryülke has somebodybirisi like this.
57
134000
2000
Tekrar ediyorum, her ülkede buna benzer bir vardır mutlaka.
02:31
She is our TVTV dietdiyet guruguru.
58
136000
2000
Bu bizim TV diyet uzmanımız.
02:33
She has massivemasif fivebeş seriesdizi of prime-timePrime-time televisiontelevizyon,
59
138000
3000
Ana yayın kuşağında yayınlanan beş tane programı var.
02:36
givingvererek out very lavishsavurgan and exoticegzotik healthsağlık advicetavsiye.
60
141000
3000
her birinde bol miktarda egzotik sağlık önerilerinde bulunuyor.
02:39
She, it turnsdönüşler out, has a non-accreditedSigara akredite correspondenceYazışma coursekurs PhPH.D.
61
144000
3000
Öğrendik ki, sahip olduğu Ph.D. Amerika'da resmen tanınmayan
02:42
from somewherebir yerde in AmericaAmerika.
62
147000
2000
yeterliliği kabul edilmeyen bir tür iletişim dalına ait.
02:44
She alsoAyrıca boastsövünür that she's a certifiedSertifikalı professionalprofesyonel memberüye
63
149000
2000
Aynı zamanda Amerika Diyet Uzmanları Derneği'nin
02:46
of the AmericanAmerikan AssociationDerneği of NutritionalBeslenme ConsultantsDanışmanları,
64
151000
2000
saygın, kayıtlı bir üyesi olduğuyla övünüyor,
02:48
whichhangi soundssesleri very glamorousgöz alıcı and excitingheyecan verici.
65
153000
2000
gerçekten de kulağa çok şafşatalı ve heyecan verici geliyor değil mi?
02:50
You get a certificatesertifika and everything.
66
155000
2000
Sertifikası filan bile var.
02:52
This one belongsaittir to my deadölü catkedi HettiHetti. She was a horriblekorkunç catkedi.
67
157000
2000
Bu sertifika da benim ölen kedim Hetti'ye ait bir sertifika. Gerçekten korkunç bir kediydi.
02:54
You just go to the websiteWeb sitesi, filldoldurmak out the formform,
68
159000
2000
Web sitelerine girip bir form dolduruyor ve
02:56
give them $60, and it arrivesgeldiğinde in the postposta.
69
161000
2000
60 dolar yatırıyorsunuz, sertifikayı adresinize gönderiyorlar.
02:58
Now that's not the only reasonneden that we think this personkişi is an idiotsalak.
70
163000
2000
Bu kişinin salağın biri olduğuna inanmamızın tek nedeni bunlar değil elbette.
03:00
She alsoAyrıca goesgider and saysdiyor things like,
71
165000
2000
Şöyle şeyler de söylüyor,
03:02
you should eatyemek lots of darkkaranlık greenyeşil leavesyapraklar,
72
167000
2000
bol bol yeşil yapraklı sebzeler yemelisiniz,
03:04
because they containiçermek lots of chlorophyllklorofil, and that will really oxygenateoksijen your bloodkan.
73
169000
2000
çünkü bu yarpraklarda klorofil var, ve bunları yediğinizde klorofiller kanınıza oksijen geçmesini sağlıyor.
03:06
And anybodykimse who'skim donetamam schoolokul biologyBiyoloji remembershatırlar
74
171000
2000
Okulda biyoloji alan herkes anımsayacaktır ki,
03:08
that chlorophyllklorofil and chloroplastskloroplast
75
173000
2000
kolorofil ve kloroplastlar
03:10
only make oxygenoksijen in sunlightGüneş ışığı,
76
175000
2000
sadece güneş ışığı altında oksijen üretirler,
03:12
and it's quiteoldukça darkkaranlık in your bowelsbağırsak after you've eatenyemiş spinachıspanak.
77
177000
3000
ve ıspanakların geçtiği barsaklarınızın içi oldukça karanlıktır.
03:15
NextSonraki, we need properuygun scienceBilim, properuygun evidencekanıt.
78
180000
3000
Sonraki şu, ihtiyacımız olan şey düzgün bilim, düzgün kanıt.
03:18
So, "RedKırmızı wineşarap can help preventönlemek breastmeme cancerkanser."
79
183000
2000
"Kırmızı şarap meme kanserini önlüyor."
03:20
This is a headlinebaşlık from the DailyGünlük TelegraphTelgraf in the U.K.
80
185000
2000
Bu İngiltere'de yayınlanan Daily Telegraph gazetesinden bir manşet.
03:22
"A glassbardak of redkırmızı wineşarap a day could help preventönlemek breastmeme cancerkanser."
81
187000
3000
"Günde bir bardak kırmızı şarap meme kanserini önleyebilir."
03:25
So you go and find this paperkâğıt, and what you find
82
190000
2000
Gidip bu çalışmanın yayınlandığı bilimsel makaleyi bulduğunuzda
03:27
is it is a realgerçek pieceparça of scienceBilim.
83
192000
2000
gerçek bilime ulaşıyorsunuz.
03:29
It is a descriptionaçıklama of the changesdeğişiklikler in one enzymeenzim
84
194000
3000
Makalede, kırmızı üzüm kabuğundan elde edilen
03:32
when you dripdamla a chemicalkimyasal extractedçıkarılan from some redkırmızı grapeüzüm skincilt
85
197000
3000
kimyasal bir maddenin, üzerlerine damlatıldığında bazı kanser hücrelerinde
03:35
ontoüstüne some cancerkanser cellshücreler
86
200000
2000
yaptığı değişiklikten bahsediliyor,
03:37
in a dishtabak on a benchBank in a laboratorylaboratuvar somewherebir yerde.
87
202000
3000
bir yerlerde bir laboratuvarda, bir tezgahın üzerindeki test tübünde bu olmuş.
03:40
And that's a really usefulişe yarar thing to describetanımlamak
88
205000
2000
Ve bu olay, gerçekten de bilimsel bir makalede işlenmeli,
03:42
in a scientificilmi paperkâğıt,
89
207000
2000
bu çok önemli,
03:44
but on the questionsoru of your ownkendi personalkişisel riskrisk
90
209000
2000
ama kırmızı şarap içerseniz meme kanserine
03:46
of gettingalma breastmeme cancerkanser if you drinkiçki redkırmızı wineşarap,
91
211000
2000
yakalanma riskinizin azalıp azalmadığını soracak olursanız
03:48
it tellsanlatır you absolutelykesinlikle buggerherif all.
92
213000
2000
bu bir palavradan ibaret.
03:50
ActuallyAslında, it turnsdönüşler out that your riskrisk of breastmeme cancerkanser
93
215000
2000
Aslına bakacak olursanız, meme kanseri olma riskiniz
03:52
actuallyaslında increasesartışlar slightlyhafifçe
94
217000
2000
içtiğiniz her alkollü içecek ile
03:54
with everyher amounttutar of alcoholalkol that you drinkiçki.
95
219000
2000
az da olsa artıyor.
03:56
So what we want is studiesçalışmalar in realgerçek humaninsan people.
96
221000
4000
Bu nedenle bizim istediğimiz insanlar üzerinde yapılan çalışmaları görmek.
04:00
And here'sburada anotherbir diğeri exampleörnek.
97
225000
2000
Bakın bir başka örnek.
04:02
This is from Britain'sİngiltere'nin leadingönemli dietdiyet and nutritionistbeslenme uzmanı in the DailyGünlük MirrorAyna,
98
227000
3000
Bu, İngiltere'nin önde gelen beslenme ve diyet uzmanından,
04:05
whichhangi is our secondikinci biggesten büyük sellingsatış newspapergazete.
99
230000
2000
Daily Mirror Gazetesinde yazıyor, tirajı en yüksek gazetemiz.
04:07
"An AustralianAvustralya studyders çalışma in 2001
100
232000
2000
"2011 yılında Avusturalya'da yapılan bir çalışmada
04:09
foundbulunan that olivezeytin oilsıvı yağ in combinationkombinasyon with fruitsmeyve, vegetablessebzeler and pulsesbakliyat
101
234000
2000
sebze, meyve ve baklagillerle birlikte alınan zeytinyağı'nın
04:11
offersteklifler measurableölçülebilir protectionkoruma againstkarşısında skincilt wrinklingswrinklings."
102
236000
2000
cilt kırışıklarını kayda değer miktarda azalttığı bulundu."
04:13
And then they give you advicetavsiye:
103
238000
2000
ve hemen bir öneride bulunuyor:
04:15
"If you eatyemek olivezeytin oilsıvı yağ and vegetablessebzeler, you'llEğer olacak have fewerDaha az skincilt wrinkleskırışıklıkları."
104
240000
2000
"Eğer sebzelerin yanında zeytinyağı yerseniz, cildinizde daha az kırışık olacaktır."
04:17
And they very helpfullyyardımsever tell you how to go and find the paperkâğıt.
105
242000
2000
Gazete makalesinde, sizin gidip orjinal akademik yazıyı bulmanıza da yardım ediyorlar.
04:19
So you go and find the paperkâğıt, and what you find is an observationalgözlemsel studyders çalışma.
106
244000
3000
Gidip akademik makaleyi okuyorsunuz, ve bunun bir gözlemsel çalışma olduğunu görüyorsunuz.
04:22
ObviouslyBelli ki nobodykimse has been ableyapabilmek
107
247000
2000
Elbette kimse 1930 yılına
04:24
to go back to 1930,
108
249000
2000
geri gidip,
04:26
get all the people borndoğmuş in one maternityAnnelik unitbirim,
109
251000
3000
bir kadın doğum koğuşunda yeni doğan tüm bebekleri alıp,
04:29
and halfyarım of them eatyemek lots of fruitmeyve and vegsebze and olivezeytin oilsıvı yağ,
110
254000
2000
bunların yarısına bol bol sebze, meyve ve zeytinyağı yedirip
04:31
and then halfyarım of them eatyemek McDonald'sMcDonald's,
111
256000
2000
diğer yarısını mcDonalds ile besleyip,
04:33
and then we see how manyçok wrinkleskırışıklıkları you've got latersonra.
112
258000
2000
iletirde kaç kırışıkları olduğunu saymıyor.
04:35
You have to take a snapshotenstantane fotoğraf of how people are now.
113
260000
2000
İnsanların ancak şu anda nasıl göründüklerine bakabiliyoruz.
04:37
And what you find is, of coursekurs,
114
262000
2000
Ve bulduğunuz şey de şu,
04:39
people who eatyemek vegsebze and olivezeytin oilsıvı yağ have fewerDaha az skincilt wrinkleskırışıklıkları.
115
264000
3000
sebze ve zeytinyağı yiyen insanlarda daha az kırışıklık var.
04:42
But that's because people who eatyemek fruitmeyve and vegsebze and olivezeytin oilsıvı yağ,
116
267000
3000
Çünkü meyve, sebze ve zeytinyağı yiyen insanlar normal değiller,
04:45
they're freakshilkat garibesi, they're not normalnormal, they're like you;
117
270000
3000
onlar acaip insanlar, sizin gibiler, normal değiller;
04:48
they come to eventsolaylar like this.
118
273000
2000
bunun gibi etkinliklere geliyorlar.
04:50
They are poshlüks, they're wealthyzengin, they're lessaz likelymuhtemelen to have outdoorAçık jobsMeslekler,
119
275000
3000
Kibarlar, zenginler, genelde açık havada çalışmayı gerektiren işler yapmıyorlar,
04:53
they're lessaz likelymuhtemelen to do manualManuel laboremek,
120
278000
2000
bedensel işlerde çalışmıyorlar,
04:55
they have better socialsosyal supportdestek, they're lessaz likelymuhtemelen to smokeduman --
121
280000
2000
daha çok sosyal desteğe sahipler, daha az sigara içiyorlar--
04:57
so for a wholebütün hostevsahibi of fascinatingbüyüleyici, interlockingiç içe
122
282000
2000
bu nedenle bir grup içiçe girmiş
04:59
socialsosyal, politicalsiyasi and culturalkültürel reasonsnedenleri,
123
284000
2000
sosyal, politik, kültürel nedenden ötürü
05:01
they are lessaz likelymuhtemelen to have skincilt wrinkleskırışıklıkları.
124
286000
2000
ciltleri daha az kırışıyor.
05:03
That doesn't mean that it's the vegetablessebzeler or the olivezeytin oilsıvı yağ.
125
288000
2000
Bu, kırışıkları azaltan şeyin sebze ve zeytinyağı olduğu anlamına gelmiyor.
05:05
(LaughterKahkaha)
126
290000
2000
(Gülüşmeler)
05:07
So ideallyideal olarak what you want to do is a trialDeneme.
127
292000
3000
İdeal olarak yapmak istediğiniz şey bir deney olmalı.
05:10
And everybodyherkes thinksdüşünüyor they're very familiartanıdık with the ideaFikir of a trialDeneme.
128
295000
2000
Herkes deney kavramını çok iyi anladığını zanneder.
05:12
TrialsDenemeler are very oldeski. The first trialDeneme was in the Bibleİncil -- DanielDaniel 1:12.
129
297000
3000
Deneyler çok eskiden beri mevcutlar. İncil'de Daniel 1:12'de ilk deney anlatılıyor.
05:15
It's very straightforwardbasit -- you take a bunchDemet of people, you splitBölünmüş them in halfyarım,
130
300000
2000
Son derece basit aslında -- bir grup denek alır ve ikiye ayırırsınız,
05:17
you treattedavi etmek one groupgrup one way, you treattedavi etmek the other groupgrup the other way,
131
302000
2000
birinci gruba bir şey uygular, ikinci gruba bir başka şey uygularsınız,
05:19
and a little while latersonra, you followtakip et them up
132
304000
2000
aradan bir zaman geçtikten sonra, grupları gözler
05:21
and see what happenedolmuş to eachher of them.
133
306000
2000
ve her birine neler olduğunu izlersiniz.
05:23
So I'm going to tell you about one trialDeneme,
134
308000
2000
Size anlatacağım deney,
05:25
whichhangi is probablymuhtemelen the mostçoğu well-reportediyi bildirilen trialDeneme
135
310000
2000
muhtemelen son on yıldır İngiliz medyasında
05:27
in the U.K. newshaber mediamedya over the pastgeçmiş decadeonyıl.
136
312000
2000
en çok yazılan deney.
05:29
And this is the trialDeneme of fishbalık oilsıvı yağ pillshaplar.
137
314000
2000
Bu deney balık yağı hapları ile ilgili.
05:31
And the claimİddia was fishbalık oilsıvı yağ pillshaplar improveiyileştirmek schoolokul performanceperformans and behaviordavranış
138
316000
2000
Deneyi yapanların iddiası balık yağı tableti içen çocuklarının okuldaki performanslarının
05:33
in mainstreamana akım childrençocuklar.
139
318000
2000
içmeyenlere göre daha iyi olduğunu idi.
05:35
And they said, "We'veBiz ettik donetamam a trialDeneme.
140
320000
2000
Dediler ki: "Biz bir deney yaptık.
05:37
All the previousönceki trialsdenemeler were positivepozitif, and we know this one'sbiri gonna be too."
141
322000
2000
Bundan önce yapılan tüm dneeylerin sonucu olumlu idi, bu nedenle bunun da öyle olacağını biliyoruz."
05:39
That should always ringhalka alarmalarm bellsçan.
142
324000
2000
Bu tip iddialar her zaman sizde alarm zilleri çaldırmalı.
05:41
Because if you alreadyzaten know the answerCevap to your trialDeneme, you shouldn'tolmamalı be doing one.
143
326000
3000
Yapacağınız deneyin sonucunu zaten biliyorsanız, zaten o deneyi yapmanıza gerek yoktur.
05:44
EitherHer iki you've riggedhileli it by designdizayn,
144
329000
2000
Ya deneyin kurgusunu kurcalamışsınızdır,
05:46
or you've got enoughyeterli dataveri so there's no need to randomizerastgele people anymoreartık.
145
331000
3000
ya da elinizde zaten yeterince veri vardır, bu nedenle denekleri rastgele örneklemenize gerek yoktur.
05:49
So this is what they were going to do in theironların trialDeneme.
146
334000
3000
Bu deneyde de yaptıkları buydu.
05:52
They were takingalma 3,000 childrençocuklar,
147
337000
2000
3,000 çocuk aldılar,
05:54
they were going to give them all these hugeKocaman fishbalık oilsıvı yağ pillshaplar,
148
339000
2000
bu çocuklara günde altı tane kocaman balık yağı tableti
05:56
sixaltı of them a day,
149
341000
2000
yutturdular,
05:58
and then a yearyıl latersonra, they were going to measureölçmek theironların schoolokul examsınav performanceperformans
150
343000
3000
ve bir yıl sonra bu çocukların sınavlardaki başarıları ölçümleyip
06:01
and comparekarşılaştırmak theironların schoolokul examsınav performanceperformans
151
346000
2000
sonuçları, çocuklar balık yağı içmeseydi
06:03
againstkarşısında what they predictedtahmin theironların examsınav performanceperformans would have been
152
348000
2000
varabilecekleri tahmini başarı seviyesi ile
06:05
if they hadn'tolmasaydı had the pillshaplar.
153
350000
3000
karşılaştırdırlar.
06:08
Now can anybodykimse spotyer a flawkusur in this designdizayn?
154
353000
3000
Bu deneyin kurgusundaki hatayı görebiliyor musunuz?
06:11
And no professorsprofesörler of clinicalklinik trialDeneme methodologymetodoloji
155
356000
3000
Bu soruyu klinik deney metodoloji
06:14
are allowedizin to answerCevap this questionsoru.
156
359000
2000
alanında çalışan profesörlerin yanıtlamamasını rica ediyorum.
06:16
So there's no controlkontrol; there's no controlkontrol groupgrup.
157
361000
2000
Kontrol yok, deneyde kontrol grubu yok.
06:18
But that soundssesleri really techieteknik okul.
158
363000
2000
Kulağa çok teknik geliyor değil mi?
06:20
That's a technicalteknik termterim.
159
365000
2000
Bu teknik bir terim.
06:22
The kidsçocuklar got the pillshaplar, and then theironların performanceperformans improvedgelişmiş.
160
367000
2000
Çocuklar hapları içti, başarıları arttı.
06:24
What elsebaşka could it possiblybelki be if it wasn'tdeğildi the pillshaplar?
161
369000
3000
Başarılarının artış nedeni haplar değilse ne olabilir?
06:27
They got olderdaha eski. We all developgeliştirmek over time.
162
372000
3000
Yaşları büyüdü. Hepimiz zamanla olgunlaşır ve gelişiriz.
06:30
And of coursekurs, alsoAyrıca there's the placeboplasebo effectEfekt.
163
375000
2000
Elbette bir de plasebo etkisi var.
06:32
The placeboplasebo effectEfekt is one of the mostçoğu fascinatingbüyüleyici things in the wholebütün of medicinetıp.
164
377000
2000
Plasebo etkisi tıptaki en hayret verici şeylerden biridir.
06:34
It's not just about takingalma a pillhap, and your performanceperformans and your painAğrı gettingalma better.
165
379000
3000
Bu sadece bir hap almak ve ardından performansınızın artması ya da ağrınızın geçmesi ile açıklanamaz.
06:37
It's about our beliefsinançlar and expectationsbeklentileri.
166
382000
2000
Plasebo, inanç ve beklentilerimizle ilintili bir şeydir.
06:39
It's about the culturalkültürel meaninganlam of a treatmenttedavi.
167
384000
2000
Tedavi fiilinin kültürel anlamı ile ilintilidir.
06:41
And this has been demonstratedgösterdi in a wholebütün raftSal of fascinatingbüyüleyici studiesçalışmalar
168
386000
3000
Bir grup inanılmaz çalışma ile bu durum ispat edildi,
06:44
comparingkarşılaştıran one kindtür of placeboplasebo againstkarşısında anotherbir diğeri.
169
389000
3000
plasebo türleri birbirleri ile karşılaştırıldı.
06:47
So we know, for exampleörnek, that two sugarşeker pillshaplar a day
170
392000
2000
Şimdi şunu biliyoruz ki, mide ülserinizi tedavi etmek için
06:49
are a more effectiveetkili treatmenttedavi for gettingalma ridkurtulmuş of gastricGastrik ulcersülser
171
394000
2000
günde iki şeker hapı alırsanız, iki hap
06:51
than one sugarşeker pillhap.
172
396000
2000
tek bir şeker hapından daha etkili olacaktır.
06:53
Two sugarşeker pillshaplar a day beatsatım one sugarşeker pillhap a day.
173
398000
2000
Günde iki şeker tableti içmek, bir tabletten daha etkilidir.
06:55
And that's an outrageousrezil and ridiculousgülünç findingbulgu, but it's truedoğru.
174
400000
3000
Bu çok acaip ve bir o kadar da komik bir bulgu, ama doğru.
06:58
We know from threeüç differentfarklı studiesçalışmalar on threeüç differentfarklı typestürleri of painAğrı
175
403000
2000
Üç farklı ağrı türü ile yapılan üç ayrı çalışma sayesinde çunu biliyoruz ki
07:00
that a saltwatertuzlu su injectionenjeksiyon is a more effectiveetkili treatmenttedavi for painAğrı
176
405000
3000
tuzlu su içeren bir enjeksiyon, ağrının giderilmesinde
07:03
than takingalma a sugarşeker pillhap, takingalma a dummykukla pillhap that has no medicinetıp in it --
177
408000
4000
şeker tabletine -- içinde ilaç olmayan sahte bir tablete- göre çok daha etkilidir.
07:07
not because the injectionenjeksiyon or the pillshaplar do anything physicallyfiziksel olarak to the bodyvücut,
178
412000
3000
Bunun nedeni enjeksiyonun ya da tabletlerin vücutta bir şeyleri değiştirmesinden kaynaklanmıyor,
07:10
but because an injectionenjeksiyon feelshissediyor like a much more dramaticdramatik interventionmüdahale.
179
415000
3000
enjeksiyonun çok daha dramatik bir müdahale olması ile ilgili.
07:13
So we know that our beliefsinançlar and expectationsbeklentileri
180
418000
2000
Bu nedenle şunu artık biliyoruz ki, inanç ve beklentilerimiz
07:15
can be manipulatedmanipüle,
181
420000
2000
manipule edilebilir.
07:17
whichhangi is why we do trialsdenemeler
182
422000
2000
Bu nedenle deneysel çalışmalarda
07:19
where we controlkontrol againstkarşısında a placeboplasebo --
183
424000
2000
plasebo uygulanan bir kontrol grubu kullanırız --
07:21
where one halfyarım of the people get the realgerçek treatmenttedavi
184
426000
2000
deneye katılan insanların yarısına gerçek tedavi uygulanır,
07:23
and the other halfyarım get placeboplasebo.
185
428000
2000
diğer yarısına ise placebo.
07:25
But that's not enoughyeterli.
186
430000
3000
Ama hepsi bununla kalmıyor elbet.
07:28
What I've just showngösterilen you are examplesörnekler of the very simplebasit and straightforwardbasit waysyolları
187
433000
3000
Size şimdiye kadar gösterdiğim örnekler gazetecilerin,
07:31
that journalistsgazeteciler and foodGıda supplementek pillhap peddlersSeyyar satıcılar
188
436000
2000
besin destekleyici ürün satan tüccarların ve
07:33
and naturopathsnaturopaths
189
438000
2000
natuopatların (dogal ürün sağaltıcıları)
07:35
can distortdeforme et evidencekanıt for theironların ownkendi purposesamaçlar.
190
440000
3000
kendi çıkarları için kanıtları çarpıttığı örnekler.
07:38
What I find really fascinatingbüyüleyici
191
443000
2000
Benim esas çok inanılmaz bulduğum şey ise
07:40
is that the pharmaceuticalfarmasötik industrysanayi
192
445000
2000
ilaç endüstrisinin de hemen hemen
07:42
useskullanımları exactlykesinlikle the sameaynı kindsçeşit of trickspüf nokta and devicescihazlar,
193
447000
2000
aynı yöntem ve numaraları kullanması,
07:44
but slightlyhafifçe more sophisticatedsofistike versionsversiyonları of them,
194
449000
3000
ama bunu biraz daha sofistike bir şekilde yapıyorlar,
07:47
in ordersipariş to distortdeforme et the evidencekanıt that they give to doctorsdoktorlar and patientshastalar,
195
452000
3000
doktor ve hastalara verdikleri bilgileri çarpıtıyorlar, ki bizler
07:50
and whichhangi we use to make vitallyhayati importantönemli decisionskararlar.
196
455000
3000
bu bilgiler ışığında hayatsal önemi olan kararlar alıyoruz.
07:53
So firstlybirinci olarak, trialsdenemeler againstkarşısında placeboplasebo:
197
458000
2000
En başta, plasebo ile karşılaştırmalı yapılan deneyler var:
07:55
everybodyherkes thinksdüşünüyor they know that a trialDeneme should be
198
460000
2000
herkes, yeni bir ilaç çıktığında etkinlik denemesinin
07:57
a comparisonkarşılaştırma of your newyeni drugilaç againstkarşısında placeboplasebo.
199
462000
2000
plasbo ile karşılaştırılması gerektiğini düşünüyor.
07:59
But actuallyaslında in a lot of situationsdurumlar that's wrongyanlış.
200
464000
2000
Oysa pek çok durumda bu yanlış.
08:01
Because oftensık sık we alreadyzaten have a very good treatmenttedavi that is currentlyşu anda availablemevcut,
201
466000
3000
Çoğu zaman deneyde araştırılan hastalık için elimizde iyi işleyen bir tedavi yöntemi oluyor,
08:04
so we don't want to know that your alternativealternatif newyeni treatmenttedavi
202
469000
2000
bu nedenle denenen alternatif yeni tedavinin hiç yoktan iyi olması
08:06
is better than nothing.
203
471000
2000
bizim için yeterli değil.
08:08
We want to know that it's better than the besten iyi currentlyşu anda availablemevcut treatmenttedavi that we have.
204
473000
3000
Biz bu yeni ilacın, zaten o anda mevcut olan tedaviden daha iyi olup olmadığını bilmek istiyoruz.
08:11
And yethenüz, repeatedlydefalarca, you consistentlysürekli olarak see people doing trialsdenemeler
205
476000
3000
Ama buna ramen, hala insanların plasebo ile karşılaştırmalı
08:14
still againstkarşısında placeboplasebo.
206
479000
2000
deneyler yaptığını görüyorsunuz.
08:16
And you can get licenselisans to bringgetirmek your drugilaç to marketpazar
207
481000
2000
Ve şu anda, ilacınızın hiç yoktan daha iyi olduğunu kanıtlayan bir veri
08:18
with only dataveri showinggösterme that it's better than nothing,
208
483000
2000
sunduğunuz anda, ilacınızı pazarlamak için lisans alabilirsiniz,
08:20
whichhangi is uselessyararsız for a doctordoktor like me tryingçalışıyor to make a decisionkarar.
209
485000
3000
ki bu bilgi benim gibi bir doktor için epey lüzumsuz.
08:23
But that's not the only way you can rigteçhizat your dataveri.
210
488000
2000
Verilerinizi tahrip edebileceğiniztek yol bu değil.
08:25
You can alsoAyrıca rigteçhizat your dataveri
211
490000
2000
Verilerinizi , yeni ilacınızı
08:27
by makingyapma the thing you comparekarşılaştırmak your newyeni drugilaç againstkarşısında
212
492000
2000
gerçekten değersiz bir şeyle de karşılaştırarak
08:29
really rubbishçöp.
213
494000
2000
saptırabilirsiniz.
08:31
You can give the competingrakip drugilaç in too lowdüşük a dosedoz,
214
496000
2000
Rakip ilacı çok düşük dozda verirsiniz,
08:33
so that people aren'tdeğil properlyuygun şekilde treatedişlenmiş.
215
498000
2000
öyle ki bu ilacı alan insanlar tam tedavi olmazlar.
08:35
You can give the competingrakip drugilaç in too highyüksek a dosedoz,
216
500000
2000
Ya da rakip ilacı çok yüksek dozda verirsiniz,
08:37
so that people get sideyan effectsetkileri.
217
502000
2000
böylece kullanan kişilerde yan etkileri görülmeye başlar.
08:39
And this is exactlykesinlikle what happenedolmuş
218
504000
2000
Şizofreni tedavisinde kullanılan bir
08:41
whichhangi antipsychoticantipsikotik medicationilaç for schizophreniaşizofreni.
219
506000
2000
anti-psikotik ilacın denemeleri sırasında da bu oldu.
08:43
20 yearsyıl agoönce, a newyeni generationnesil of antipsychoticantipsikotik drugsilaçlar were broughtgetirdi in
220
508000
3000
20 yıl önce, daha az yan etkileri olacağı iddiası ile
08:46
and the promisesöz vermek was that they would have fewerDaha az sideyan effectsetkileri.
221
511000
3000
yeni bir nesil anti-psikotik ilaç piyasaya sürüldü.
08:49
So people setset about doing trialsdenemeler of these newyeni drugsilaçlar
222
514000
2000
Ve insanlar bu yeni ilaçlarla eskilerinin etkinliğini
08:51
againstkarşısında the oldeski drugsilaçlar,
223
516000
2000
karşılaştıran deneyler yaptılar,
08:53
but they gaveverdi the oldeski drugsilaçlar in ridiculouslygülünç highyüksek dosesdoz --
224
518000
2000
ama deneylerde eski ilaçları inanılmaz yüksek dozlarda verdiler --
08:55
20 milligramsMG a day of haloperidolHaloperidol.
225
520000
2000
günde 20 miligram haloperidol mesela.
08:57
And it's a foregonekaçınılmaz conclusionSonuç,
226
522000
2000
Elbette bunun kaçınılmaz sonucu şu,
08:59
if you give a drugilaç at that highyüksek a dosedoz,
227
524000
2000
bir ilacı bu kadar yüksek dozda uygulayacak olursanız,
09:01
that it will have more sideyan effectsetkileri and that your newyeni drugilaç will look better.
228
526000
3000
yan etkileri çok olacaktır, böylece yeni ilacınız daha iyi görünecektir.
09:04
10 yearsyıl agoönce, historytarih repeatedtekrarlanan itselfkendisi, interestinglyilginç biçimde,
229
529000
2000
10 yıl önce, ilgin bir şekilde tarih kendini tekrarladı,
09:06
when risperidoneRisperidon, whichhangi was the first of the new-generationyeni nesil antipscyhoticantipscyhotic drugsilaçlar,
230
531000
3000
yeni nesil anti-psikotik ilaçların ilklerinden biri olan risperdion üzerindeki telif hakkı kalktı,
09:09
camegeldi off copyrighttelif hakkı, so anybodykimse could make copieskopyalar.
231
534000
3000
böylece her firma bu ilaçtan üretebilir hale geldi.
09:12
EverybodyHerkes wanted to showgöstermek that theironların drugilaç was better than risperidoneRisperidon,
232
537000
2000
herkes ilaçlarının risperidon'dan daha etkin olmasını istiyordu,
09:14
so you see a bunchDemet of trialsdenemeler comparingkarşılaştıran newyeni antipsychoticantipsikotik drugsilaçlar
233
539000
3000
ortaya bir sürü yeni anti-psikotik ilaç deneyi çıktı,
09:17
againstkarşısında risperidoneRisperidon at eightsekiz milligramsMG a day.
234
542000
2000
hepsi günde 8 miligram risperidon'a karşı yapılan deneyler.
09:19
Again, not an insanedeli dosedoz, not an illegalyasadışı dosedoz,
235
544000
2000
tekrar söylüyorum, çılgınca ya da yasal olmayan bir doz değil,
09:21
but very much at the highyüksek endson of normalnormal.
236
546000
2000
ama normalin üst sınırında bir doz.
09:23
And so you're boundciltli to make your newyeni drugilaç look better.
237
548000
3000
Böyle yaparsanız, yeni ilacın daha iyi görülmesi kaçınılmaz olacaktır.
09:26
And so it's no surprisesürpriz that overalltüm,
238
551000
3000
Bu nedenle, endüstri tarafından
09:29
industry-fundedsanayi tarafından finanse edilen trialsdenemeler
239
554000
2000
masrafları karşılanan ilaç deneylerinin
09:31
are fourdört timeszamanlar more likelymuhtemelen to give a positivepozitif resultsonuç
240
556000
2000
olumlu sonuç verme ihtimali bağımsız ilaç deneylerinden
09:33
than independentlybağımsız olarak sponsoredsponsor trialsdenemeler.
241
558000
3000
dört kez daha fazladır.
09:36
But -- and it's a bigbüyük but --
242
561000
3000
Ama- ve bu büyük bir ama-
09:39
(LaughterKahkaha)
243
564000
2000
(Gülüşmeler)
09:41
it turnsdönüşler out,
244
566000
2000
eğer bakacak olursanız
09:43
when you look at the methodsyöntemleri used by industry-fundedsanayi tarafından finanse edilen trialsdenemeler,
245
568000
3000
endüstri tarafından masrafları karşılanan deneylerde uygulanan metodlara bakacak olursanız
09:46
that they're actuallyaslında better
246
571000
2000
onların bağımsız deneylerden
09:48
than independentlybağımsız olarak sponsoredsponsor trialsdenemeler.
247
573000
2000
daha iyi olduğunu görürsünüz.
09:50
And yethenüz, they always manageyönetmek to to get the resultsonuç that they want.
248
575000
3000
Ama buna rağmen her zaman istedikleri sonuçları elde ederler.
09:53
So how does this work?
249
578000
2000
Peki bu nasıl oluyor?
09:55
How can we explainaçıklamak this strangegarip phenomenonfenomen?
250
580000
3000
Bu tuhaf durumu nasıl açıklayabiliriz?
09:58
Well it turnsdönüşler out that what happensolur
251
583000
2000
Olan şu ki, beklenen sonuçları vermeyen çalışmalar,
10:00
is the negativenegatif dataveri goesgider missingeksik in actionaksiyon;
252
585000
2000
hareket ederken ortadan kayboluyor;
10:02
it's withheldtevkif from doctorsdoktorlar and patientshastalar.
253
587000
2000
doktor ve hastalar bunları hiç görmüyorlar.
10:04
And this is the mostçoğu importantönemli aspectGörünüş of the wholebütün storyÖykü.
254
589000
2000
Bu konu ile ilgili en önemli şey bu.
10:06
It's at the topüst of the pyramidpiramit of evidencekanıt.
255
591000
2000
Kanıt piramidinin en tepesindeki verileri bunlar.
10:08
We need to have all of the dataveri on a particularbelirli treatmenttedavi
256
593000
3000
Bir tedavinin işe yarayıp yaramadığını anlamak için
10:11
to know whetherolup olmadığını or not it really is effectiveetkili.
257
596000
2000
o tedaviye ait verilerin tümüne sahip olmalıyız.
10:13
And there are two differentfarklı waysyolları that you can spotyer
258
598000
2000
Bazı verilerin zaman içinde ortadan yok olduğunu
10:15
whetherolup olmadığını some dataveri has gonegitmiş missingeksik in actionaksiyon.
259
600000
2000
anlamanın iki you vardır.
10:17
You can use statisticsistatistik, or you can use storieshikayeleri.
260
602000
3000
İstatistikleri kullanabilirsiniz, ya da hikayaleri kullanabilirsiniz.
10:20
I personallyŞahsen prefertercih etmek statisticsistatistik, so that's what I'm going to do first.
261
605000
2000
Şahsen ben istatistikleri kullanmayı tercih ederim, bu nedenle s.ze önce bunu göstereceğim.
10:22
This is something calleddenilen funnelHuni plotarsa.
262
607000
2000
Bu gördüğünüz bir huni grafiği.
10:24
And a funnelHuni plotarsa is a very cleverzeki way of spottinglekelenme
263
609000
2000
Huni grafiği, ortadan kaybolan ufak negatif deneyleri
10:26
if smallküçük negativenegatif trialsdenemeler have disappearedkayboldu, have gonegitmiş missingeksik in actionaksiyon.
264
611000
3000
saptamak için çok iyi bir yöntemdir.
10:29
So this is a graphgrafik of all of the trialsdenemeler
265
614000
2000
Bu, bir tedavi yöntemi için yapılan tüm çalışmaların
10:31
that have been donetamam on a particularbelirli treatmenttedavi.
266
616000
2000
işaretlendiği bir grafik.
10:33
And as you go up towardskarşı the topüst of the graphgrafik,
267
618000
2000
Grafiğin üstüne doğru çıktıkça,
10:35
what you see is eachher dotnokta is a trialDeneme.
268
620000
2000
burada gördüğünüz her bir noktacık bir deney,
10:37
And as you go up, those are the biggerDaha büyük trialsdenemeler, so they'veonlar ettik got lessaz errorhata in them.
269
622000
3000
yukarı doğu çıktıkça gördüklerininiz daha büyük deneyler, bu nedenle hata payları daha az.
10:40
So they're lessaz likelymuhtemelen to be randomlyrasgele falseyanlış positivespozitifler, randomlyrasgele falseyanlış negativesnegatifler.
270
625000
3000
Bu nedenle buralarda rastgele yalancı pozitif ya da rastgele yalancı negatif olma ihtimali düşük.
10:43
So they all clusterküme togetherbirlikte.
271
628000
2000
Genelde böyle kümelenirler.
10:45
The bigbüyük trialsdenemeler are closeryakın to the truedoğru answerCevap.
272
630000
2000
Büyük (kalabalık) deneylerin sonucu gerçeğe daha yakındır.
10:47
Then as you go furtherayrıca down at the bottomalt,
273
632000
2000
Aşağıya indikçe, burada görebilirsiniz,
10:49
what you can see is, over on this sideyan, the spurioussahte falseyanlış negativesnegatifler,
274
634000
3000
bu tarafta, hatalı yalancı negatifler mevcut,
10:52
and over on this sideyan, the spurioussahte falseyanlış positivespozitifler.
275
637000
2000
bu tarafa ise hatalı yalancı pozitifler.
10:54
If there is publicationyayın biasönyargı,
276
639000
2000
Eğer sonuçlar yayınlanırken taraf tutulursa
10:56
if smallküçük negativenegatif trialsdenemeler have gonegitmiş missingeksik in actionaksiyon,
277
641000
3000
küçük negatif deneyler oradan kayboluyor,
10:59
you can see it on one of these graphsgrafikleri.
278
644000
2000
bakın bu grafikte kaybolduklarını görebilirsiniz.
11:01
So you can see here that the smallküçük negativenegatif trialsdenemeler
279
646000
2000
Böylece grafiğin alt tarafında kalan küçük negatif deney sonuçlarının
11:03
that should be on the bottomalt left have disappearedkayboldu.
280
648000
2000
ortadan kaybolduğunu görebilirsiniz.
11:05
This is a graphgrafik demonstratingtasviridir the presencevarlık of publicationyayın biasönyargı
281
650000
3000
Bu grafik, yanlı yayın konusu üzerine yapılan yayınlardaki
11:08
in studiesçalışmalar of publicationyayın biasönyargı.
282
653000
2000
yanlı yayınların varlığını gösteriyor.
11:10
And I think that's the funniestkomik epidemiologyepidemioloji jokeşaka
283
655000
2000
bence bu gelmiş geçmiş en komik
11:12
that you will ever hearduymak.
284
657000
2000
epidemiyoloji şakası.
11:14
That's how you can provekanıtlamak it statisticallyistatistiksel,
285
659000
2000
İşte bu durumu istatistiksel olarak böyle gösterebilirsiniz,
11:16
but what about storieshikayeleri?
286
661000
2000
şimdi hikayelere gelelim.
11:18
Well they're heinousiğrenç, they really are.
287
663000
2000
BUnlar gerçekten mide bulandırıcı, gerçekten öyleler.
11:20
This is a drugilaç calleddenilen reboxetinereboxetine.
288
665000
2000
Bu reboksetin isimli bir ilaç.
11:22
This is a drugilaç that I myselfkendim have prescribedreçete to patientshastalar.
289
667000
2000
ben de zaman zaman hastalarıma reçete etmiştim.
11:24
And I'm a very nerdyinek doctordoktor.
290
669000
2000
Ben epey inek bir doktorumdur.
11:26
I hopeumut I try to go out of my way to try and readokumak and understandanlama all the literatureEdebiyat.
291
671000
3000
Alışılageldik uygulamaların dışına çıkıp, tüm yayınları okuyup anlamaya çalışırım.
11:29
I readokumak the trialsdenemeler on this. They were all positivepozitif. They were all well-conductediyi yapılan.
292
674000
3000
Bu ilaçla ilgili deneyleri de okudum. Hepsi pozitifti. hepsi iyi tasarlanmış çalışmalardı.
11:32
I foundbulunan no flawkusur.
293
677000
2000
Hiç bir hatalarını bulamadım.
11:34
UnfortunatelyNe yazık ki, it turneddönük out,
294
679000
2000
Sonuçta, şu ortaya çıktı ki,
11:36
that manyçok of these trialsdenemeler were withheldtevkif.
295
681000
2000
yapılan deneylerin çoğunluğunun sonuçları yayınlanmamıştı.
11:38
In factgerçek, 76 percentyüzde
296
683000
2000
Aslını sorarsanız,
11:40
of all of the trialsdenemeler that were donetamam on this drugilaç
297
685000
2000
bu ilaçla ilgili yapılmış klinik çalışmaların %76'sının sonuçları
11:42
were withheldtevkif from doctorsdoktorlar and patientshastalar.
298
687000
2000
hasta ve doktorlara iletilmemişti.
11:44
Now if you think about it,
299
689000
2000
Şöyle düşünün,
11:46
if I tossedattı a coinmadeni para a hundredyüz timeszamanlar,
300
691000
2000
bir para alıp, yüz defa yazı tura atıyorum,
11:48
and I'm allowedizin to withholdkesintisi from you
301
693000
2000
ve sonuçların yarısını
11:50
the answerscevaplar halfyarım the timeszamanlar,
302
695000
2000
sizden gizlememe izin veriliyor,
11:52
then I can convinceikna etmek you
303
697000
2000
bu durumda sizi elimdeki paranın iki yüzünün de
11:54
that I have a coinmadeni para with two headskafalar.
304
699000
2000
tura olduğuna ikna edebilirim.
11:56
If we removeKaldır halfyarım of the dataveri,
305
701000
2000
Eğer verilerin yarısını ortadan kaldırırsak,
11:58
we can never know what the truedoğru effectEfekt sizeboyut of these medicinesilaçlar is.
306
703000
3000
bir ilacın gerçek etkinliğini asla bilemeyiz.
12:01
And this is not an isolatedyalıtılmış storyÖykü.
307
706000
2000
Ve bu bir defa karşılaştığımız bir hikaye değil.
12:03
Around halfyarım of all of the trialDeneme dataveri on antidepressantsantidepresanlar has been withheldtevkif,
308
708000
4000
Anti-depresan ilaçlara ilişkin verilerin yaklaşık yarısı hiç yayınlanmadı,
12:07
but it goesgider way beyondötesinde that.
309
712000
2000
bundan fazlası da var.
12:09
The NordicNordic CochraneCochrane GroupGrup were tryingçalışıyor to get a holdambar of the dataveri on that
310
714000
2000
Nordic Cochrane Grubu, bu verileri bulup bir araya
12:11
to bringgetirmek it all togetherbirlikte.
311
716000
2000
getirmeye çalışıyor.
12:13
The CochraneCochrane GroupsGrupları are an internationalUluslararası nonprofitkâr amacı gütmeyen collaborationişbirliği
312
718000
3000
Cochrane Grubu uluslararası kar amacı gütmeyen bir vakıf,
12:16
that produceüretmek systematicsistematik reviewsdeğerlendirmeden edinildi of all of the dataveri that has ever been showngösterilen.
313
721000
3000
yapılan tüm çalışmalara ait verileri birleştirerek sistematik incelemeler yapıyor.
12:19
And they need to have accesserişim to all of the trialDeneme dataveri.
314
724000
3000
Bu nedenle yapılan tüm deneylerin verilerine ihtiyacı var.
12:22
But the companiesşirketler withheldtevkif that dataveri from them,
315
727000
3000
Ama şirketler verilerini onlarla paylaşmıyorlar.
12:25
and so did the EuropeanAvrupa Medicinesİlaçlar AgencyAjansı
316
730000
2000
Avrupa İlaç Birliği üç yıl boyunca
12:27
for threeüç yearsyıl.
317
732000
2000
verilerini paylaşmadı.
12:29
This is a problemsorun that is currentlyşu anda lackingeksik a solutionçözüm.
318
734000
3000
Bu, şu anda çözümü olmayan bir sorun.
12:32
And to showgöstermek how bigbüyük it goesgider, this is a drugilaç calleddenilen TamifluTamiflu,
319
737000
3000
Sorunun büyüklüğünü şöyle anlatmaya çalışayım, bu Tamiflu isimli bir ilaç
12:35
whichhangi governmentshükümetler around the worldDünya
320
740000
2000
dünyanın dört bir yanındaki devletler
12:37
have spentharcanmış billionsmilyarlarca and billionsmilyarlarca of dollarsdolar on.
321
742000
2000
bu ilaca milyarlarca milyarlarca dolar harcadılar.
12:39
And they spendharcamak that moneypara on the promisesöz vermek
322
744000
2000
Bu ilacın grip komplikasyonlarını azaltacağına
12:41
that this is a drugilaç whichhangi will reduceazaltmak the rateoran
323
746000
2000
yönelik bir umut nedeniyle harcadılar
12:43
of complicationskomplikasyonlar with flugrip.
324
748000
2000
bu parayı.
12:45
We alreadyzaten have the dataveri
325
750000
2000
Elimizdeki veriler, bu ilacın grip semptomlarını
12:47
showinggösterme that it reducesazaltır the durationsüre of your flugrip by a fewaz hourssaatler.
326
752000
2000
birkaç saat kadar kısaltacbileceği yönünde.
12:49
But I don't really carebakım about that. GovernmentsHükümetler don't carebakım about that.
327
754000
2000
Ama ben bununla ilgilenmiyorum. Devletler de bununla ilgilenmiyorlar.
12:51
I'm very sorry if you have the flugrip, I know it's horriblekorkunç,
328
756000
3000
Grip olduysanız gerçekten çok üzgünüm, biliyorum berbat birşey,
12:54
but we're not going to spendharcamak billionsmilyarlarca of dollarsdolar
329
759000
2000
ama grip belirtilerinizi yarım gün azaltabilmek için
12:56
tryingçalışıyor to reduceazaltmak the durationsüre of your flugrip symptomssemptomlar
330
761000
2000
milyarlarca dolar harcayamayacağız,
12:58
by halfyarım a day.
331
763000
2000
kusura bakmayın.
13:00
We prescribereçete these drugsilaçlar, we stockpilestoklamak them for emergenciesAcil durumlar
332
765000
2000
Bu ilaçları reçete ediyoruz, acil durumlar için depoluyoruz,
13:02
on the understandinganlayış that they will reduceazaltmak the numbernumara of complicationskomplikasyonlar,
333
767000
2000
bunu, bu ilaçların olaı komplikasyonların sayısını azaltacağını düşünerek yapıyoruz,
13:04
whichhangi meansanlamına geliyor pneumoniazatürree and whichhangi meansanlamına geliyor deathölüm.
334
769000
3000
ki bu komplikasyonlar zatürre ve bazen de ölüm demek.
13:07
The infectiousbulaşıcı diseaseshastalıklar CochraneCochrane GroupGrup, whichhangi are basedmerkezli in Italyİtalya,
335
772000
3000
Enfeksiyon hastalıkları ile çalışan Cochrane Grubu, ki Italya'da konuşlanmış durumdalar
13:10
has been tryingçalışıyor to get
336
775000
2000
ilaç firmalarından
13:12
the fulltam dataveri in a usablekullanılabilir formform out of the drugilaç companiesşirketler
337
777000
3000
eksiksiz verileri kullanılabilir bir formatta istiyor ki
13:15
so that they can make a fulltam decisionkarar
338
780000
3000
bu ilacın gerçekten işe yarayıp yaramadığı konusunda
13:18
about whetherolup olmadığını this drugilaç is effectiveetkili or not,
339
783000
2000
bir karara varabilsin.
13:20
and they'veonlar ettik not been ableyapabilmek to get that informationbilgi.
340
785000
3000
Ve bu bilgiyi hala elde edemediler.
13:23
This is undoubtedlyHiç şüphesiz
341
788000
2000
Şüphe yok ki, bu günümüzde
13:25
the singletek biggesten büyük ethicalahlâki problemsorun
342
790000
3000
tıbbın karşılaştığı en büyük
13:28
facingkarşı medicinetıp todaybugün.
343
793000
2000
etik sorun.
13:30
We cannotyapamam make decisionskararlar
344
795000
3000
Elimizdeki veriler eksikken
13:33
in the absenceyokluk of all of the informationbilgi.
345
798000
4000
karar alamayız.
13:37
So it's a little bitbit difficultzor from there
346
802000
3000
Bu nedenle, olumlu bir sonuca varmak
13:40
to spinçevirmek in some kindtür of positivepozitif conclusionSonuç.
347
805000
4000
biraz zor.
13:44
But I would say this:
348
809000
4000
Ama şunu söyleyebilirim:
13:48
I think that sunlightGüneş ışığı
349
813000
3000
En iyi mikrop öldürücü
13:51
is the besten iyi disinfectantDezenfektan.
350
816000
2000
güneş ışığıdır.
13:53
All of these things are happeningolay in plainsade sightgörme,
351
818000
3000
Ve bunların hepsi gün ışığında oluyor,
13:56
and they're all protectedkorumalı
352
821000
2000
ve hepsi de bir nevi
13:58
by a forcekuvvet fieldalan of tediousnesstediousness.
353
823000
3000
bıkkınlık perdesi altında korunuyor.
14:01
And I think, with all of the problemssorunlar in scienceBilim,
354
826000
2000
Ve bence bilimde karşılaştığımız tüm problemler gibi,
14:03
one of the besten iyi things that we can do
355
828000
2000
bunun için de yapılabilecek en iyi şey
14:05
is to liftasansör up the lidkapak,
356
830000
2000
kapağı aralayıp
14:07
fingerparmak around in the mechanicsmekanik and peerakran in.
357
832000
2000
içerideki mekanizmaları kurcalayıp kutunun içine bakmak.
14:09
Thank you very much.
358
834000
2000
Çok teşekkür ederim.
14:11
(ApplauseAlkış)
359
836000
3000
(Alkışlar)
Translated by Isil Arican
Reviewed by Diba Szamosi

▲Back to top

ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com