ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com
TEDGlobal 2011

Ben Goldacre: Battling bad science

Бен Голдейкър : Срещу лошата наука

Filmed:
2,713,579 views

Всеки ден се публикуват нови здравословни съвети, но как да разберем дали са верни? Бен Голдейкър, доктор и епидемолог, ни показва на забързани обороти как доказателствата могат да бъдат манипулирани; от очевидните твърдения за здравословното хранене, до незабележимите измами на фармацевтичната индустрия.
- Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks. Full bio

Double-click the English transcript below to play the video.

00:15
So I'm a doctorлекар, but I kindмил of slippedподхлъзнах sidewaysстранично into researchизследване,
0
0
3000
Аз съм лекар, но в кариерата си се насочих към научните изследвания,
00:18
and now I'm an epidemiologistепидемиолог.
1
3000
2000
и сега съм епидемиолог.
00:20
And nobodyНикой really knowsзнае what epidemiologyепидемиология is.
2
5000
2000
Никой не знае точно какво е епидемиология.
00:22
EpidemiologyЕпидемиология is the scienceнаука of how we know in the realреален worldсвят
3
7000
3000
Епидемиологията е науката, чрез която знаем в реалния свят
00:25
if something is good for you or badлошо for you.
4
10000
2000
дали нещо е полезно или вредно.
00:27
And it's bestнай-доброто understoodразбрах throughпрез exampleпример
5
12000
2000
Това е най-добре обяснено с примери
00:29
as the scienceнаука of those crazyлуд, wackyЧалнатият newspaperвестник headlinesзаглавия.
6
14000
5000
като науката на тези смахнати, налудничави заглавия във вестниците.
00:34
And these are just some of the examplesпримери.
7
19000
2000
И това са само част от примерите.
00:36
These are from the DailyЕжедневно MailПоща. EveryВсеки countryдържава in the worldсвят has a newspaperвестник like this.
8
21000
3000
Тези са от "Дейли Мейл". Във всяка държава има подобен вестник.
00:39
It has this bizarreстранни, ongoingв процес philosophicalфилософски projectпроект
9
24000
3000
В него има един абсурден, продължителен философски проект,
00:42
of dividingразделителен all the inanimateнеодушевен objectsобекти in the worldсвят
10
27000
2000
който има за цел да разделя всички предмети на този свят,
00:44
into the onesтакива that eitherедин causeкауза or preventпредотвратявам cancerрак.
11
29000
3000
на такива които или причиняват или предпазват от рак.
00:47
So here are some of the things they said causeкауза cancerрак recentlyнаскоро:
12
32000
2000
Ето някои неща, които според тях са причина за развиване на рак напоследък:
00:49
divorceразвод, Wi-FiWi-Fi, toiletriesтоалетни принадлежности and coffeeкафе.
13
34000
2000
развод, безжичен интернет, козметика и кафе.
00:51
Here are some of the things they say preventsпредотвратява cancerрак:
14
36000
2000
Ето и някои, които според тях предотвратяват разболяването от рак:
00:53
crustsкорички, redчервен pepperпипер, licoriceженско биле and coffeeкафе.
15
38000
2000
корите, червеният пипер, сладкия корен и кафе.
00:55
So alreadyвече you can see there are contradictionsпротиворечия.
16
40000
2000
Ето, вече можете да видите противоречията.
00:57
CoffeeКафе bothи двете causesкаузи and preventsпредотвратява cancerрак.
17
42000
2000
Кафето едновременно причинява и предпазва от рак.
00:59
And as you startначало to readПрочети on, you can see
18
44000
2000
И ако продължите да четете, може дори да усетите
01:01
that maybe there's some kindмил of politicalполитически valenceвалентност behindзад some of this.
19
46000
3000
прикрит политически смисъл зад това.
01:04
So for womenДами, houseworkдомакинска работа preventsпредотвратява breastгърди cancerрак,
20
49000
2000
И така, при жените, домакинската работа предпазва от рак на гърдата,
01:06
but for menхора, shoppingпазаруване could make you impotentимпотентен.
21
51000
3000
но за мъжете, пазаруването може да доведе до импотентност.
01:09
So we know that we need to startначало
22
54000
3000
И така разбираме, че трябва да започнем
01:12
unpickingнамаляване the scienceнаука behindзад this.
23
57000
3000
да търсим науката зад всичко това.
01:15
And what I hopeнадявам се to showшоу
24
60000
2000
Това, което се надявам да ви покажа е,
01:17
is that unpickingнамаляване dodgyзавързан claimsискове,
25
62000
2000
че разобличаването на съмнителни твърдения,
01:19
unpickingнамаляване the evidenceдоказателства behindзад dodgyзавързан claimsискове,
26
64000
2000
разобличаването на доказателствата зад съмнителните твърдения,
01:21
isn't a kindмил of nastyгаден carpingпридирчив activityдейност;
27
66000
3000
не е несправедлива критика;
01:24
it's sociallyсоциално usefulполезен,
28
69000
2000
това е социално полезно,
01:26
but it's alsoсъщо an extremelyизвънредно valuableценен
29
71000
2000
но и същевременно е един изключително ценен
01:28
explanatoryобяснителен toolинструмент.
30
73000
2000
разяснителен модел.
01:30
Because realреален scienceнаука is all about
31
75000
2000
Защото истинската наука е
01:32
criticallyкритично appraisingоценката на the evidenceдоказателства for somebodyнякой else'sдруг е positionпозиция.
32
77000
2000
критичното анализиране на доказателствата за чуждото мнение.
01:34
That's what happensслучва се in academicакадемичен journalsдневници.
33
79000
2000
Това се случва в академичните издания.
01:36
That's what happensслучва се at academicакадемичен conferencesконференции.
34
81000
2000
Това се случва на академични конференции.
01:38
The Q&A sessionсесия after a post-opслед op presentsподаръци dataданни
35
83000
2000
Времето за въпроси и отгвори след като някой представи данни от изледвания
01:40
is oftenчесто a bloodкръв bathбаня.
36
85000
2000
е често чисто кръвопролитие.
01:42
And nobodyНикой mindsумове that. We activelyактивно welcomeдобре дошли it.
37
87000
2000
И никой няма нищо против това. Ние го приветстваме.
01:44
It's like a consentingсъгласие intellectualинтелектуален S&M activityдейност.
38
89000
3000
Това е като доброволно интелектуално мазохистично упражнение.
01:47
So what I'm going to showшоу you
39
92000
2000
Това, което ще ви покажа,
01:49
is all of the mainосновен things,
40
94000
2000
са главните,
01:51
all of the mainосновен featuresХарактеристика of my disciplineдисциплина --
41
96000
2000
всички най-важни елементи в моята сфера --
01:53
evidence-basedосновани на доказателства medicineмедицина.
42
98000
2000
науката, която се осланя на доказателства.
01:55
And I will talk you throughпрез all of these
43
100000
2000
Ще ви обясня всички тези доказателства
01:57
and demonstrateдемонстрира how they work,
44
102000
2000
и ще ви демонстрирам как работят,
01:59
exclusivelyединствено и само usingизползвайки examplesпримери of people gettingполучаване на stuffматерия wrongпогрешно.
45
104000
3000
използвайки само примери на хора, които правят грешни изводи.
02:02
So we'llдобре startначало with the absoluteабсолютен weakestнай-слабите formформа of evidenceдоказателства knownизвестен to man,
46
107000
3000
И така, ще започнем с най-слабото доказателство което познаваме,
02:05
and that is authorityвласт.
47
110000
2000
и това е авторитетът.
02:07
In scienceнаука, we don't careгрижа how manyмного lettersписма you have after your nameиме.
48
112000
3000
В научната среда не ни интересува колко титли има някой към името си.
02:10
In scienceнаука, we want to know what your reasonsпричини are for believingвярвайки something.
49
115000
3000
В научната среда искаме да знаем какви са причините да вярвате в нещо.
02:13
How do you know that something is good for us
50
118000
2000
Как знаете дали нещо е полезно
02:15
or badлошо for us?
51
120000
2000
или вредно за нас?
02:17
But we're alsoсъщо unimpressedбезразличен by authorityвласт,
52
122000
2000
Но ние не се впечатляваме от авторитетността,
02:19
because it's so easyлесно to contriveизмислям.
53
124000
2000
защото е толкова лесно тя да се фалшифицира.
02:21
This is somebodyнякой calledНаречен DrД-р. GillianДжилиан McKeithMcKeith PhPH.D,
54
126000
2000
Това е д-р Джилиан МакКийт,
02:23
or, to give her fullпълен medicalмедицински titleзаглавие, GillianДжилиан McKeithMcKeith.
55
128000
3000
или, да я представя с пълната й медицинска степен, Джилиан МакКийт.
02:26
(LaughterСмях)
56
131000
3000
(Смях в залата)
02:29
Again, everyвсеки countryдържава has somebodyнякой like this.
57
134000
2000
И отново, във всяка държава има някой като нея.
02:31
She is our TVТЕЛЕВИЗИЯ dietдиета guruгуру.
58
136000
2000
Тя е нашият телевизионен диетичен гуру.
02:33
She has massiveмасов fiveпет seriesсерия of prime-timeпрайм-тайма televisionтелевизия,
59
138000
3000
Тя води пет предавания в най-гледаното време,
02:36
givingдавайки out very lavishпищни and exoticекзотични healthздраве adviceсъвет.
60
141000
3000
давайки щедри и екзотични здравословни съвети.
02:39
She, it turnsзавои out, has a non-accreditedне са акредитирани correspondenceкореспонденция courseкурс PhPH.D.
61
144000
3000
Оказва се, че тя всъщност има не-акредитирана докторска степен от дистанционно обучение
02:42
from somewhereнякъде in AmericaАмерика.
62
147000
2000
от някъде из Америка.
02:44
She alsoсъщо boastsхвалбите that she's a certifiedсертифицирани professionalпрофесионален memberчлен
63
149000
2000
Тя също така се хвали, че е пълноправен член
02:46
of the AmericanАмерикански AssociationАсоциация of NutritionalХранителна ConsultantsКонсултанти,
64
151000
2000
на Американската Асоциация на Диетолозите,
02:48
whichкойто soundsзвуци very glamorousбляскав and excitingвълнуващ.
65
153000
2000
което звучи много впечатляващо и вълнуващо.
02:50
You get a certificateсертификат and everything.
66
155000
2000
Получавате сертификат и подобни неща.
02:52
This one belongsпринадлежи to my deadмъртъв catкотка HettiHetti. She was a horribleужасен catкотка.
67
157000
2000
Този е на покойната ми котка Хети. Тя беше ужасна котка.
02:54
You just go to the websiteуебсайт, fillзапълни out the formформа,
68
159000
2000
Просто трябва да отидете на страницата в интернет, да попълните формуляра,
02:56
give them $60, and it arrivesпристига in the postпост.
69
161000
2000
да платите 60 долара и сертификатът идва по пощата.
02:58
Now that's not the only reasonпричина that we think this personчовек is an idiotидиот.
70
163000
2000
Това не е единствената причина да мислим този човек за глупав.
03:00
She alsoсъщо goesотива and saysказва things like,
71
165000
2000
Тя открито казва неща като --
03:02
you should eatЯжте lots of darkтъмен greenзелен leavesлиста,
72
167000
2000
трябва да ядете много растения, които имат тъмно-зелени листа,
03:04
because they containсъдържа lots of chlorophyllхлорофил, and that will really oxygenateкислородосъдържащи съединения your bloodкръв.
73
169000
2000
защото те съдържат хлорофил и това ще повиши нивото на кислород в кръвта ви.
03:06
And anybodyнякой who'sкой е doneСвършен schoolучилище biologyбиология remembersпомни
74
171000
2000
И всеки който е учил биология в училище си спомня,
03:08
that chlorophyllхлорофил and chloroplastsхлоропласти
75
173000
2000
че хлорофилът и хлоропластите
03:10
only make oxygenкислород in sunlightслънчева светлина,
76
175000
2000
произвеждат кислород само при наличие на слънчева светлина,
03:12
and it's quiteсъвсем darkтъмен in your bowelsчерва after you've eatenял spinachспанак.
77
177000
3000
а след като сте яли спанак, той попада в стомаха ви, където е доста тъмно.
03:15
NextСледваща, we need properправилното scienceнаука, properправилното evidenceдоказателства.
78
180000
3000
След това, ние имаме нужда от истинска наука, от истиски доказателства.
03:18
So, "RedЧервен wineвино can help preventпредотвратявам breastгърди cancerрак."
79
183000
2000
И така, "Червеното вино помага да се предотврати заболяването от рак на гърдата."
03:20
This is a headlineзаглавие from the DailyЕжедневно TelegraphТелеграф in the U.K.
80
185000
2000
Това е заглавие от вестник "Дейли Телеграф" в Обединеното Кралство.
03:22
"A glassстъклена чаша of redчервен wineвино a day could help preventпредотвратявам breastгърди cancerрак."
81
187000
3000
"Чаша червено вино всеки ден предпазва от рак на гърдата."
03:25
So you go and find this paperхартия, and what you find
82
190000
2000
И когато погледнете статията ще откриете,
03:27
is it is a realреален pieceпарче of scienceнаука.
83
192000
2000
че това е истинско научно изследване.
03:29
It is a descriptionописание of the changesпромени in one enzymeензим
84
194000
3000
То съдържа описание на промените в един ензим,
03:32
when you dripкапково a chemicalхимически extractedизвлечени from some redчервен grapeгрозде skinкожа
85
197000
3000
когато добавите химикал, извлечен от люспите на сорт червено грозде,
03:35
ontoвърху some cancerрак cellsклетки
86
200000
2000
към ракови клетки
03:37
in a dishчиния on a benchпейка in a laboratoryлаборатория somewhereнякъде.
87
202000
3000
в съд, който седи на маса в някоя лаборатория.
03:40
And that's a really usefulполезен thing to describeописвам
88
205000
2000
И това е много полезно да се обясни
03:42
in a scientificнаучен paperхартия,
89
207000
2000
в научен материал,
03:44
but on the questionвъпрос of your ownсобствен personalперсонален riskриск
90
209000
2000
но относно въпроса за личния риск
03:46
of gettingполучаване на breastгърди cancerрак if you drinkпитие redчервен wineвино,
91
211000
2000
да развиете рак на гърдата ако пиете червено вино,
03:48
it tellsразказва you absolutelyабсолютно buggerмръсник all.
92
213000
2000
това научно изследване не ви казва нищо.
03:50
ActuallyВсъщност, it turnsзавои out that your riskриск of breastгърди cancerрак
93
215000
2000
Всъщност, се оказва, че рискът да развиете рак на гърдата
03:52
actuallyвсъщност increasesсе увеличава slightlyмалко
94
217000
2000
става малко по-голям
03:54
with everyвсеки amountколичество of alcoholалкохол that you drinkпитие.
95
219000
2000
със всяка консумация на алкохол.
03:56
So what we want is studiesпроучвания in realреален humanчовек people.
96
221000
4000
Това, което искаме, са изследвания върху реални хора.
04:00
And here'sето anotherоще exampleпример.
97
225000
2000
Ето още един пример.
04:02
This is from Britain'sНа Великобритания leadingводещ dietдиета and nutritionistдиетолог in the DailyЕжедневно MirrorОгледало,
98
227000
3000
Този материал е от един от водещите британски диетолози в "Дейли Мирър,"
04:05
whichкойто is our secondвтори biggestНай-големият sellingпродажна newspaperвестник.
99
230000
2000
който е вторият по продажби вестник.
04:07
"An AustralianАвстралийски studyуча in 2001
100
232000
2000
"Австралийско изследване през 2001 година
04:09
foundнамерено that oliveмаслина oilмасло in combinationсъчетание with fruitsплодове, vegetablesзеленчуци and pulsesимпулси
101
234000
2000
показва, че зехтинът, в комбинация с плодове, зеленчуци и варива,
04:11
offersоферти measurableизмерими protectionзащита againstсрещу skinкожа wrinklingswrinklings."
102
236000
2000
предлага измерима защита срещу бръчки."
04:13
And then they give you adviceсъвет:
103
238000
2000
И после ви съветват:
04:15
"If you eatЯжте oliveмаслина oilмасло and vegetablesзеленчуци, you'llти ще have fewerпо-малко skinкожа wrinklesбръчки."
104
240000
2000
"Ако консумирате зехтин и зеленчуци, ще имате по-малко бръчки."
04:17
And they very helpfullyуслужливо tell you how to go and find the paperхартия.
105
242000
2000
И ви дават много полезната информация къде да намерите целия научен материал по темата.
04:19
So you go and find the paperхартия, and what you find is an observationalнаблюдателни studyуча.
106
244000
3000
И вие го намирате, и това което виждате е изследване, което е направено чрез наблюдения.
04:22
ObviouslyОчевидно nobodyНикой has been ableспособен
107
247000
2000
Очевидно е, че никой не е могъл
04:24
to go back to 1930,
108
249000
2000
да се върне в 1930 година,
04:26
get all the people bornроден in one maternityмайчинство unitмерна единица,
109
251000
3000
да събере всички родени в едно родилно отделение,
04:29
and halfнаполовина of them eatЯжте lots of fruitплодове and vegзеленчуци and oliveмаслина oilмасло,
110
254000
2000
половината да консумират много полодове и зеленчуци и зехтин,
04:31
and then halfнаполовина of them eatЯжте McDonald'sМакдоналдс,
111
256000
2000
а другата половина да консумират МакДоналдс,
04:33
and then we see how manyмного wrinklesбръчки you've got laterпо късно.
112
258000
2000
и после да видим колко бръчки имат след време.
04:35
You have to take a snapshotмоментална снимка of how people are now.
113
260000
2000
Трябва да снимаме хората, както са сега.
04:37
And what you find is, of courseкурс,
114
262000
2000
И, разбира се, какво откривате,
04:39
people who eatЯжте vegзеленчуци and oliveмаслина oilмасло have fewerпо-малко skinкожа wrinklesбръчки.
115
264000
3000
е че хората, които консумират зеленчуци и зехтин имат по-малко бръчки.
04:42
But that's because people who eatЯжте fruitплодове and vegзеленчуци and oliveмаслина oilмасло,
116
267000
3000
Но това е така, защото хората, които консумират зеленчуци и зехтин,
04:45
they're freaksизродите, they're not normalнормален, they're like you;
117
270000
3000
са ненормални, те са като вас:
04:48
they come to eventsсъбития like this.
118
273000
2000
те идват на такива събития като това.
04:50
They are poshПош, they're wealthyбогат, they're lessпо-малко likelyвероятно to have outdoorОткрит jobsработни места,
119
275000
3000
Те са изискани, богати, по-малко вероятно е да имат работа, която изисква от тях да са на открито,
04:53
they're lessпо-малко likelyвероятно to do manualнаръчник laborтруд,
120
278000
2000
по-малко вероятно е да извършват ръчен труд,
04:55
they have better socialсоциален supportподдържа, they're lessпо-малко likelyвероятно to smokeдим --
121
280000
2000
имат по-добро социално подпомагане, по-малко вероятно е да са пушачи --
04:57
so for a wholeцяло hostдомакин of fascinatingочарователен, interlockingзаключване
122
282000
2000
за това, поради цял куп от впечатляващи, взаимно свързани,
04:59
socialсоциален, politicalполитически and culturalкултурен reasonsпричини,
123
284000
2000
социални, политически и културни причини,
05:01
they are lessпо-малко likelyвероятно to have skinкожа wrinklesбръчки.
124
286000
2000
има по-малка вероятност да имат бръчки.
05:03
That doesn't mean that it's the vegetablesзеленчуци or the oliveмаслина oilмасло.
125
288000
2000
Това не означава, че този ефект е от зеленчуците и зехтинът.
05:05
(LaughterСмях)
126
290000
2000
(Смях в залата)
05:07
So ideallyидеално what you want to do is a trialпробен период.
127
292000
3000
Най-добрият вариант е да се направи експеримент.
05:10
And everybodyвсички thinksмисли they're very familiarзапознат with the ideaидея of a trialпробен период.
128
295000
2000
И всички мислят, че са наясно с идеята как да се направи експеримент.
05:12
TrialsОпити are very oldстар. The first trialпробен период was in the BibleБиблията -- DanielДаниел 1:12.
129
297000
3000
Експериментите са много стара практика. Първият е от Библията -- Даниел 1:12.
05:15
It's very straightforwardпрост -- you take a bunchкуп of people, you splitразцепване them in halfнаполовина,
130
300000
2000
Много е просто и лесно -- взимате група хора, разделяте ги на две,
05:17
you treatлечение one groupгрупа one way, you treatлечение the other groupгрупа the other way,
131
302000
2000
третирате едната група по един начин, другата по друг,
05:19
and a little while laterпо късно, you followпоследвам them up
132
304000
2000
и след известно време, проследявате групите
05:21
and see what happenedсе случи to eachвсеки of them.
133
306000
2000
и установявате какво се е случило с тях.
05:23
So I'm going to tell you about one trialпробен период,
134
308000
2000
Сега ще ви разкажа за един експеримент,
05:25
whichкойто is probablyвероятно the mostнай-много well-reportedдобре докладваните trialпробен период
135
310000
2000
който сигурно е най-обсъжданият експеримент
05:27
in the U.K. newsНовини mediaсредства over the pastминало decadeдесетилетие.
136
312000
2000
в медиите в Обединеното Кралство за последното десетилетие.
05:29
And this is the trialпробен период of fishриба oilмасло pillsхапчета.
137
314000
2000
Това е опитът с таблетки рибено масло.
05:31
And the claimиск was fishриба oilмасло pillsхапчета improveподобряване на schoolучилище performanceпроизводителност and behaviorповедение
138
316000
2000
Твърдението беше, че рибеното масло подобрява успехът в училище и държанието
05:33
in mainstreamмейнстрийм childrenдеца.
139
318000
2000
на обикновените деца.
05:35
And they said, "We'veНие сме doneСвършен a trialпробен период.
140
320000
2000
Изследователите твърдяха, "Направихме опит.
05:37
All the previousпредишен trialsизпитвания were positiveположителен, and we know this one'sедин е gonna be too."
141
322000
2000
Всички останали опити бяха позитивни, и ние знаем, че и този ще е такъв."
05:39
That should always ringпръстен alarmаларма bellsкамбани.
142
324000
2000
Такова твърдение трябва винаги да буди съмнение.
05:41
Because if you alreadyвече know the answerотговор to your trialпробен период, you shouldn'tне трябва be doing one.
143
326000
3000
Защото ако вече знаете резултатът от вашето изследване, значи не трябва да го провеждате.
05:44
EitherИли you've riggedтакелаж it by designдизайн,
144
329000
2000
Или сте го нагласили по дизайн,
05:46
or you've got enoughдостатъчно dataданни so there's no need to randomizeслучайност people anymoreвече.
145
331000
3000
или имате достатъчно данни за да няма нужда вече да подбирате произволно хора.
05:49
So this is what they were going to do in theirтехен trialпробен период.
146
334000
3000
Ето как щеше да протече опита.
05:52
They were takingприемате 3,000 childrenдеца,
147
337000
2000
Намирайки 3000 деца,
05:54
they were going to give them all these hugeогромен fishриба oilмасло pillsхапчета,
148
339000
2000
щели да им дават всички тези огромни таблетки рибено масло,
05:56
sixшест of them a day,
149
341000
2000
шест на ден,
05:58
and then a yearгодина laterпо късно, they were going to measureмярка theirтехен schoolучилище examизпит performanceпроизводителност
150
343000
3000
и след една година, щели да измерят представянето им на изпитите в училище
06:01
and compareсравнение theirтехен schoolучилище examизпит performanceпроизводителност
151
346000
2000
и да сравнят това представяне на изпитите,
06:03
againstсрещу what they predictedпрогнозира, theirтехен examизпит performanceпроизводителност would have been
152
348000
2000
с онова, което предварително предсказали че щяло да бъде,
06:05
if they hadn'tне е имал had the pillsхапчета.
153
350000
3000
ако не бяха взимали таблетките.
06:08
Now can anybodyнякой spotмясто a flawнедостатък in this designдизайн?
154
353000
3000
Може ли вече някой да намери грешката в този експериментален дизайн?
06:11
And no professorsпрофесори of clinicalклиничен trialпробен период methodologyметодология
155
356000
3000
И е забранено на професори по методологията на клинично изпитване
06:14
are allowedпозволен to answerотговор this questionвъпрос.
156
359000
2000
да отговарят на този въпрос.
06:16
So there's no controlконтрол; there's no controlконтрол groupгрупа.
157
361000
2000
Оказва се, че няма контрол; няма контролна група.
06:18
But that soundsзвуци really techieTechie.
158
363000
2000
Но, това звучи прекалено технично.
06:20
That's a technicalтехнически termтермин.
159
365000
2000
Това е технически термин.
06:22
The kidsдеца got the pillsхапчета, and then theirтехен performanceпроизводителност improvedподобрен.
160
367000
2000
Децата взимат хапчетата и в резултат тяхното представяне се подобрява.
06:24
What elseоще could it possiblyвъзможно be if it wasn'tне е the pillsхапчета?
161
369000
3000
Какво друго може да има ефект, ако не е заради хапчетата?
06:27
They got olderпо-стари. We all developразвият over time.
162
372000
3000
Децата са порастнали. Ние всички се развиваме с времето.
06:30
And of courseкурс, alsoсъщо there's the placeboплацебо effectефект.
163
375000
2000
И, разбира се, има и пласибо ефект.
06:32
The placeboплацебо effectефект is one of the mostнай-много fascinatingочарователен things in the wholeцяло of medicineмедицина.
164
377000
2000
Пласибо ефектът е една от най-интригуващите теми в медицината.
06:34
It's not just about takingприемате a pillхапче, and your performanceпроизводителност and your painболка gettingполучаване на better.
165
379000
3000
Не става въпрос само за това да вземете хапче и вашето представяне или болка да се подобрят.
06:37
It's about our beliefsвярвания and expectationsочакванията.
166
382000
2000
Става въпрос за нашите вярвания и очаквания.
06:39
It's about the culturalкултурен meaningзначение of a treatmentлечение.
167
384000
2000
Става въпрос за културното значение на едно лечение.
06:41
And this has been demonstratedдемонстрира in a wholeцяло raftсал of fascinatingочарователен studiesпроучвания
168
386000
3000
Това е доказано в множество интригуващи изследвания,
06:44
comparingсравняване one kindмил of placeboплацебо againstсрещу anotherоще.
169
389000
3000
които сравняват един вид пласибо с друг.
06:47
So we know, for exampleпример, that two sugarзахар pillsхапчета a day
170
392000
2000
Например, ние знаем, че две хапчета съдържащи захар, на ден
06:49
are a more effectiveефективен treatmentлечение for gettingполучаване на ridизбавям of gastricстомаха ulcersязви
171
394000
2000
са по-ефективно лечение за предотвратяване на стомашни язви,
06:51
than one sugarзахар pillхапче.
172
396000
2000
отколкото едно захарно хапче.
06:53
Two sugarзахар pillsхапчета a day beatsудара one sugarзахар pillхапче a day.
173
398000
2000
Две захарни хапчета, са по-добре от едно на ден.
06:55
And that's an outrageousвъзмутителен and ridiculousсмешен findingнамиране, but it's trueвярно.
174
400000
3000
Това е нечувано и абсурдно откритие, но е вярно.
06:58
We know from threeтри differentразличен studiesпроучвания on threeтри differentразличен typesвидове of painболка
175
403000
2000
От три различни изследвания за три различни вида болка, ние знаем,
07:00
that a saltwaterсолена вода injectionинжекция is a more effectiveефективен treatmentлечение for painболка
176
405000
3000
че инжекция, сдържаща солена вода, е по-ефективно лечение срещу болката,
07:03
than takingприемате a sugarзахар pillхапче, takingприемате a dummyманекен pillхапче that has no medicineмедицина in it --
177
408000
4000
отколкото взимането на захарно хапче -- фалшиво хапче, което не съдържа лекарство --
07:07
not because the injectionинжекция or the pillsхапчета do anything physicallyфизически to the bodyтяло,
178
412000
3000
не защото инжекцията или хапчето имат някакъв физически ефект върху тялото,
07:10
but because an injectionинжекция feelsчувства like a much more dramaticдраматичен interventionинтервенция.
179
415000
3000
а защото инжекцията се възприема като много по-сериозна намеса.
07:13
So we know that our beliefsвярвания and expectationsочакванията
180
418000
2000
Така, ние знаем, че нашите разбирания и очаквания
07:15
can be manipulatedманипулирани,
181
420000
2000
могат да бъдат манипулирани,
07:17
whichкойто is why we do trialsизпитвания
182
422000
2000
което е причината да провеждаме експерименти,
07:19
where we controlконтрол againstсрещу a placeboплацебо --
183
424000
2000
чрез които правим изводи на базата на пласибо --
07:21
where one halfнаполовина of the people get the realреален treatmentлечение
184
426000
2000
едната половина от участниците са подложени на истинското лечение,
07:23
and the other halfнаполовина get placeboплацебо.
185
428000
2000
а другата половина приемат пласибо.
07:25
But that's not enoughдостатъчно.
186
430000
3000
Но това не е достатъчно.
07:28
What I've just shownпосочен you are examplesпримери of the very simpleпрост and straightforwardпрост waysначини
187
433000
3000
Това, което ви показах досега са примери за лесни и ясни начини,
07:31
that journalistsжурналисти and foodхрана supplementдобавка pillхапче peddlerspeddlers
188
436000
2000
чрез които журналисти и разпространители на хранителни добавки,
07:33
and naturopathsnaturopaths
189
438000
2000
и природолечители,
07:35
can distortнаруши evidenceдоказателства for theirтехен ownсобствен purposesцели.
190
440000
3000
могат да манипулират данни за своя лична изгода.
07:38
What I find really fascinatingочарователен
191
443000
2000
Това, което ме заинтригува
07:40
is that the pharmaceuticalфармацевтичната industryпромишленост
192
445000
2000
е, че фармацевтичната индустрия
07:42
usesупотреби exactlyточно the sameедин и същ kindsвидове of tricksтрикове and devicesустройства,
193
447000
2000
използва същите трикове и изобретения,
07:44
but slightlyмалко more sophisticatedсложен versionsверсии of them,
194
449000
3000
но в малко подобрени варианти,
07:47
in orderпоръчка to distortнаруши the evidenceдоказателства that they give to doctorsлекари and patientsпациенти,
195
452000
3000
за да изопачи доказателствата, които дават на лекарите и пациентите,
07:50
and whichкойто we use to make vitallyжизнено importantважно decisionsрешения.
196
455000
3000
и които ние използваме за взимането на жизненоважни решения.
07:53
So firstlyна първо място, trialsизпитвания againstсрещу placeboплацебо:
197
458000
2000
Първо, експерименти срещу пласибо:
07:55
everybodyвсички thinksмисли they know that a trialпробен период should be
198
460000
2000
всички мислят, че един експеримент трябва да е
07:57
a comparisonсравнение of your newнов drugлекарство againstсрещу placeboплацебо.
199
462000
2000
сравнение на вашето ново лекарство с пласибо.
07:59
But actuallyвсъщност in a lot of situationsситуации that's wrongпогрешно.
200
464000
2000
Всъщност, в много ситуации, това е грешно.
08:01
Because oftenчесто we alreadyвече have a very good treatmentлечение that is currentlyпонастоящем availableна разположение,
201
466000
3000
Защото, често вече имаме достатъчно добро лечение,
08:04
so we don't want to know that your alternativeалтернатива newнов treatmentлечение
202
469000
2000
за това не искаме да знаем дали вашето алтернативно ново лечение
08:06
is better than nothing.
203
471000
2000
е по-добро от никакво лечение.
08:08
We want to know that it's better than the bestнай-доброто currentlyпонастоящем availableна разположение treatmentлечение that we have.
204
473000
3000
Ние искаме да знаем, че то е по-добро от най-доброто лечение, което имаме до момента.
08:11
And yetоще, repeatedlyнееднократно, you consistentlyпоследователно see people doing trialsизпитвания
205
476000
3000
И въпреки това, нееднократно, вие виждате хора, които последователно провеждат експерименти,
08:14
still againstсрещу placeboплацебо.
206
479000
2000
все още използвайки сравнение с пласибо.
08:16
And you can get licenseРазрешително to bringвъвеждат your drugлекарство to marketпазар
207
481000
2000
И можете да получите разрешително вашето лекарство да се продава на пазара
08:18
with only dataданни showingпоказване that it's better than nothing,
208
483000
2000
само с данни, показващи че е по-добро от нищо,
08:20
whichкойто is uselessбезполезен for a doctorлекар like me tryingопитвайки to make a decisionрешение.
209
485000
3000
което е безполезно за лекар като мен, който се опитва да вземе решение.
08:23
But that's not the only way you can rigмонтирам your dataданни.
210
488000
2000
Но това не е единственият начин, по който можете да манипулирате данните си.
08:25
You can alsoсъщо rigмонтирам your dataданни
211
490000
2000
Можете да промените данните си
08:27
by makingприготвяне the thing you compareсравнение your newнов drugлекарство againstсрещу
212
492000
2000
като направите така, че сравнявате новото си лекарство
08:29
really rubbishбоклук.
213
494000
2000
с нещо наистина неизползваемо.
08:31
You can give the competingконкуриращи drugлекарство in too lowниско a doseдоза,
214
496000
2000
Можете да дадете много малка доза от лекарството, което използвате за сравнение
08:33
so that people aren'tне са properlyправилно treatedтретира.
215
498000
2000
и така хората не се лекувани както трябва.
08:35
You can give the competingконкуриращи drugлекарство in too highВисоко a doseдоза,
216
500000
2000
Можете да дадете прекалено голяма доза от лекарството, което използвате за сравнение
08:37
so that people get sideстрана effectsвещи.
217
502000
2000
и така хората изпитват странични ефекти.
08:39
And this is exactlyточно what happenedсе случи
218
504000
2000
Точно това се случи
08:41
whichкойто antipsychoticантипсихотик medicationлечение for schizophreniaшизофрения.
219
506000
2000
с антипсихотично лекарство за шизофрения.
08:43
20 yearsгодини agoпреди, a newнов generationпоколение of antipsychoticантипсихотик drugsнаркотици were broughtдонесе in
220
508000
3000
Преди 20 години, ново поколение антипсихотични лекарства бяха представени за тестване
08:46
and the promiseобещание was that they would have fewerпо-малко sideстрана effectsвещи.
221
511000
3000
и обещаваха по-малко странични ефекти.
08:49
So people setкомплект about doing trialsизпитвания of these newнов drugsнаркотици
222
514000
2000
И така, учените подготвяха опити за тези нови лекарства,
08:51
againstсрещу the oldстар drugsнаркотици,
223
516000
2000
сравнявайки ги със старите лекарства,
08:53
but they gaveдадох the oldстар drugsнаркотици in ridiculouslyабсурдно highВисоко dosesдози --
224
518000
2000
но те предписваха старите лекарства в абсурдно големи дози --
08:55
20 milligramsмилиграма a day of haloperidolхалоперидол.
225
520000
2000
20 милиграма халоперидол дневно.
08:57
And it's a foregoneпропуснатите conclusionзаключение,
226
522000
2000
И това е предрешен въпрос,
08:59
if you give a drugлекарство at that highВисоко a doseдоза,
227
524000
2000
ако предпишете лекарство в такива големи количества,
09:01
that it will have more sideстрана effectsвещи and that your newнов drugлекарство will look better.
228
526000
3000
неговите странични ефекти ще са по-големи и вашето ново лекарство ще изглежда по-добре.
09:04
10 yearsгодини agoпреди, historyистория repeatedповторен itselfсебе си, interestinglyинтересното,
229
529000
2000
Интересно, преди 10 години историята се повтаря,
09:06
when risperidoneрисперидон, whichкойто was the first of the new-generationново поколение antipscyhoticantipscyhotic drugsнаркотици,
230
531000
3000
когато рисперидон, първото лекарство от новото поколение антипсихотични лекарства,
09:09
cameдойде off copyrightАвторско право, so anybodyнякой could make copiesкопия.
231
534000
3000
вече не беше защитено с авторско право, всеки можеше да го копира.
09:12
EverybodyВсеки wanted to showшоу that theirтехен drugлекарство was better than risperidoneрисперидон,
232
537000
2000
Всички искаха да покажат, че тяхното лекарство е по-добро от рисперидон
09:14
so you see a bunchкуп of trialsизпитвания comparingсравняване newнов antipsychoticантипсихотик drugsнаркотици
233
539000
3000
и така се появиха няколко клинични опита, сравняващи нови антипсихотични лекарства
09:17
againstсрещу risperidoneрисперидон at eightосем milligramsмилиграма a day.
234
542000
2000
с рисперидон, приеман по осем милиграма дневно.
09:19
Again, not an insaneбезумен doseдоза, not an illegalнезаконен doseдоза,
235
544000
2000
Отново, не ненормална доза, не нелегална,
09:21
but very much at the highВисоко endкрай of normalнормален.
236
546000
2000
но много по-висока от нормалната.
09:23
And so you're boundграница to make your newнов drugлекарство look better.
237
548000
3000
И така е гарантиран успехът на новото ви лекарство.
09:26
And so it's no surpriseизненада that overallцялостен,
238
551000
3000
Не е изненада, че като цяло,
09:29
industry-fundedиндустрия, финансирани trialsизпитвания
239
554000
2000
при финансираните от индустрията клинични опити,
09:31
are fourчетирима timesпъти more likelyвероятно to give a positiveположителен resultрезултат
240
556000
2000
положителните резултати са четири пъти по-вероятни,
09:33
than independentlyНезависимо sponsoredСпонсорирани trialsизпитвания.
241
558000
3000
отколкото при независимо финансираните изследвания.
09:36
But -- and it's a bigголям but --
242
561000
3000
Но, и това е голямо но,
09:39
(LaughterСмях)
243
564000
2000
(смях в залата)
09:41
it turnsзавои out,
244
566000
2000
оказва се,
09:43
when you look at the methodsметоди used by industry-fundedиндустрия, финансирани trialsизпитвания,
245
568000
3000
когато погледнете методите използвани при изследвания, финансирани от индустрията,
09:46
that they're actuallyвсъщност better
246
571000
2000
че те са всъщност по-добри
09:48
than independentlyНезависимо sponsoredСпонсорирани trialsизпитвания.
247
573000
2000
от тези, използвани при независимо финансираните изследвания.
09:50
And yetоще, they always manageуправлявам to to get the resultрезултат that they want.
248
575000
3000
И въпреки това, те винаги успяват да получат желаните резултати.
09:53
So how does this work?
249
578000
2000
Как се получава това?
09:55
How can we explainобяснявам this strangeстранен phenomenonфеномен?
250
580000
3000
Как можем да си обясним този странен феномен?
09:58
Well it turnsзавои out that what happensслучва се
251
583000
2000
Оказва се,
10:00
is the negativeотрицателен dataданни goesотива missingлипсващ in actionдействие;
252
585000
2000
че отрицателните резултати се губят по време на изследването;
10:02
it's withheldзадържана from doctorsлекари and patientsпациенти.
253
587000
2000
те са укрити от лекарите и пациентите.
10:04
And this is the mostнай-много importantважно aspectаспект of the wholeцяло storyистория.
254
589000
2000
И това е най-важният момент в цялата история.
10:06
It's at the topвръх of the pyramidпирамида of evidenceдоказателства.
255
591000
2000
Този момент е на върха на пирамидата с доказателствата.
10:08
We need to have all of the dataданни on a particularособен treatmentлечение
256
593000
3000
Нужна ни е цялата информация за определеното лечение,
10:11
to know whetherдали or not it really is effectiveефективен.
257
596000
2000
за да знаем дали то е наистина ефективно или не.
10:13
And there are two differentразличен waysначини that you can spotмясто
258
598000
2000
Има два начина да се разбере
10:15
whetherдали some dataданни has goneси отиде missingлипсващ in actionдействие.
259
600000
2000
дали данни са изчезнали безпричинно.
10:17
You can use statisticsстатистика, or you can use storiesистории.
260
602000
3000
Можете да използвате статистика или да използвате истории.
10:20
I personallyлично preferпредпочитам statisticsстатистика, so that's what I'm going to do first.
261
605000
2000
Лично аз предпочитам статистиката, поради което ще започна с нея.
10:22
This is something calledНаречен funnelфуния plotпарцел.
262
607000
2000
Това е нещо наречено фуниевидна графика.
10:24
And a funnelфуния plotпарцел is a very cleverумен way of spottingзацапване
263
609000
2000
Тя е хитроумен начин да забележите,
10:26
if smallмалък negativeотрицателен trialsизпитвания have disappearedизчезнал, have goneси отиде missingлипсващ in actionдействие.
264
611000
3000
дали малки отрицателни изследвания са безследно изчезнали.
10:29
So this is a graphдиаграма of all of the trialsизпитвания
265
614000
2000
Това е графика на всички опити,
10:31
that have been doneСвършен on a particularособен treatmentлечение.
266
616000
2000
които са направени с определено лекарство.
10:33
And as you go up towardsкъм the topвръх of the graphдиаграма,
267
618000
2000
Ако погледнете към върха на графиката,
10:35
what you see is eachвсеки dotточка is a trialпробен период.
268
620000
2000
това което ще забележите е, че всяка точка е едно изследване.
10:37
And as you go up, those are the biggerпо-голям trialsизпитвания, so they'veте имат got lessпо-малко errorгрешка in them.
269
622000
3000
И ако продължите нагоре, виждате по-големите изследвания, които имат по-малко статистически грешки.
10:40
So they're lessпо-малко likelyвероятно to be randomlyна случаен принцип falseфалшив positivesпозитиви, randomlyна случаен принцип falseфалшив negativesнегативи.
270
625000
3000
Така е по-малко вероятно те да са произволно погрешни положителни или погрешно отрицателни проби.
10:43
So they all clusterструпване togetherзаедно.
271
628000
2000
За това те се струпват на едно място.
10:45
The bigголям trialsизпитвания are closerпо близо to the trueвярно answerотговор.
272
630000
2000
Големите изследвания се доближават до истината.
10:47
Then as you go furtherоще down at the bottomдъно,
273
632000
2000
Ако тръгнете надолу към дъното на графиката,
10:49
what you can see is, over on this sideстрана, the spuriousфалшиви falseфалшив negativesнегативи,
274
634000
3000
това което можете да видите от тази страна са лъжливите погрешно отрицателни проби,
10:52
and over on this sideстрана, the spuriousфалшиви falseфалшив positivesпозитиви.
275
637000
2000
а от другата страна -- лъжливите погрешно положителни проби.
10:54
If there is publicationпубликация biasотклонение,
276
639000
2000
Ако има пристрастие при публикуването на данните,
10:56
if smallмалък negativeотрицателен trialsизпитвания have goneси отиде missingлипсващ in actionдействие,
277
641000
3000
ако малки отрицателни опити са изчезнали,
10:59
you can see it on one of these graphsграфики.
278
644000
2000
можете да забележете това на една от тези графики.
11:01
So you can see here that the smallмалък negativeотрицателен trialsизпитвания
279
646000
2000
Както виждате тук, малките отрицателни изследвания,
11:03
that should be on the bottomдъно left have disappearedизчезнал.
280
648000
2000
които трябва да са отляво в дъното са изчезнали.
11:05
This is a graphдиаграма demonstratingдоказващо the presenceприсъствие of publicationпубликация biasотклонение
281
650000
3000
Това е графика, която демонстрира наличие на пристрастие при публикуването на данни,
11:08
in studiesпроучвания of publicationпубликация biasотклонение.
282
653000
2000
в изследване на пристрастието при публикуването на данни.
11:10
And I think that's the funniestсмешното epidemiologyепидемиология jokeшега
283
655000
2000
Според мен това е най-забавната епидемиологична шега,
11:12
that you will ever hearчувам.
284
657000
2000
която някога ще чуете.
11:14
That's how you can proveдокажи it statisticallyстатистически,
285
659000
2000
Така стигате до статистическите доказателства,
11:16
but what about storiesистории?
286
661000
2000
но какво да кажем за историите?
11:18
Well they're heinousгнусен, they really are.
287
663000
2000
Ами, те са противни, наистина.
11:20
This is a drugлекарство calledНаречен reboxetinereboxetine.
288
665000
2000
Това лекарство се нарича ребоксетин.
11:22
This is a drugлекарство that I myselfсебе си have prescribedпредписано to patientsпациенти.
289
667000
2000
Това е лекарство, което самият аз сам предписвал на пациенти.
11:24
And I'm a very nerdyизперкал doctorлекар.
290
669000
2000
А аз съм много педантичен лекар.
11:26
I hopeнадявам се I try to go out of my way to try and readПрочети and understandразбирам all the literatureлитература.
291
671000
3000
Опитвам се да отделя време и да прочета и разбера всички материали.
11:29
I readПрочети the trialsизпитвания on this. They were all positiveположителен. They were all well-conductedдобре проведено.
292
674000
3000
Прочетох изследванията за това лекарство. Всички бяха позитивни. Всички бяха добре организирани.
11:32
I foundнамерено no flawнедостатък.
293
677000
2000
Не намерих нито една грешка.
11:34
UnfortunatelyЗа съжаление, it turnedоказа out,
294
679000
2000
За съжаление се оказа,
11:36
that manyмного of these trialsизпитвания were withheldзадържана.
295
681000
2000
че много от изследванията са били прикрити.
11:38
In factфакт, 76 percentна сто
296
683000
2000
Всъщност, 76 процента
11:40
of all of the trialsизпитвания that were doneСвършен on this drugлекарство
297
685000
2000
от всички изследвания направени върху това лекарство,
11:42
were withheldзадържана from doctorsлекари and patientsпациенти.
298
687000
2000
са укрити от лекари и пациенти.
11:44
Now if you think about it,
299
689000
2000
Ако се замислите,
11:46
if I tossedблъскат a coinмонета a hundredсто timesпъти,
300
691000
2000
ако хвърля монета сто пъти
11:48
and I'm allowedпозволен to withholdоткаже from you
301
693000
2000
и мога да скрия от вас
11:50
the answersотговори halfнаполовина the timesпъти,
302
695000
2000
резултата от половината хвърляния,
11:52
then I can convinceубеждавам you
303
697000
2000
тогава мога да ви убедя,
11:54
that I have a coinмонета with two headsглави.
304
699000
2000
че имам монета, чиито две страни са ези.
11:56
If we removeпремахнете halfнаполовина of the dataданни,
305
701000
2000
Ако премахнем половината данни,
11:58
we can never know what the trueвярно effectефект sizeразмер of these medicinesлекарства is.
306
703000
3000
никога няма да разберем какъв е истинският мащаб на ефекта на тези лекарства.
12:01
And this is not an isolatedизолиран storyистория.
307
706000
2000
И това не е единичен случай.
12:03
Around halfнаполовина of all of the trialпробен период dataданни on antidepressantsантидепресанти has been withheldзадържана,
308
708000
4000
Около половината от данните от изследвания на антидепресанти са прикрити,
12:07
but it goesотива way beyondотвъд that.
309
712000
2000
но нещата не спират до тук.
12:09
The NordicСкандинавските CochraneCochrane GroupГрупа were tryingопитвайки to get a holdдържа of the dataданни on that
310
714000
2000
Северноевропейската група Кохрейн се опитваха да се сдобият с данните от тези изследвания,
12:11
to bringвъвеждат it all togetherзаедно.
311
716000
2000
за да ги съберат на едно място.
12:13
The CochraneCochrane GroupsГрупи are an internationalмеждународен nonprofitс нестопанска цел, collaborationсътрудничество
312
718000
3000
Кохрейн групите са интернационално неправитествено сътрудничество,
12:16
that produceпродукция systematicсистемно reviewsотзива of all of the dataданни that has ever been shownпосочен.
313
721000
3000
което прави анализи на всички достъпни статистически данни.
12:19
And they need to have accessдостъп to all of the trialпробен период dataданни.
314
724000
3000
За това, те имат нужда от достъп до всички данни от клиничните изследвания.
12:22
But the companiesкомпании withheldзадържана that dataданни from them,
315
727000
3000
Но, компаниите укриват данни от тях,
12:25
and so did the EuropeanЕвропейската MedicinesЛекарства AgencyАгенция
316
730000
2000
както направи и "Европейската агенция по лекарствата"
12:27
for threeтри yearsгодини.
317
732000
2000
за период от три години.
12:29
This is a problemпроблем that is currentlyпонастоящем lackingлипсващ a solutionрешение.
318
734000
3000
Това е проблем, който все още няма решение.
12:32
And to showшоу how bigголям it goesотива, this is a drugлекарство calledНаречен TamifluTamiflu,
319
737000
3000
За да ви демонстрирам колко е сериозен той, ви представям лекарството Тамифлу,
12:35
whichкойто governmentsправителства around the worldсвят
320
740000
2000
за което правителства от целия свят
12:37
have spentпрекарах billionsмилиарди and billionsмилиарди of dollarsдолара on.
321
742000
2000
са инвестирали милиарди долари.
12:39
And they spendхарча that moneyпари on the promiseобещание
322
744000
2000
Те са инвестирали теза пари на основата на обещанието,
12:41
that this is a drugлекарство whichкойто will reduceнамаляване на the rateскорост
323
746000
2000
че това лекарство ще намали броя
12:43
of complicationsусложнения with fluгрип.
324
748000
2000
на усложненията при грип.
12:45
We alreadyвече have the dataданни
325
750000
2000
Вече имаме данни,
12:47
showingпоказване that it reducesнамалява the durationпродължителност of your fluгрип by a fewмалцина hoursчаса.
326
752000
2000
които показват, че това лекарство съкращава вашия грип с няколко часа.
12:49
But I don't really careгрижа about that. GovernmentsПравителствата don't careгрижа about that.
327
754000
2000
Но мен това не ме интересува. Правителствата не ги интересува.
12:51
I'm very sorry if you have the fluгрип, I know it's horribleужасен,
328
756000
3000
Съжалявам ако сте болни от грип, знам че е ужасно,
12:54
but we're not going to spendхарча billionsмилиарди of dollarsдолара
329
759000
2000
но ние няма да харчим милиарди долари,
12:56
tryingопитвайки to reduceнамаляване на the durationпродължителност of your fluгрип symptomsсимптоми
330
761000
2000
опитвайки се да съкратим продължителността на вашия грип
12:58
by halfнаполовина a day.
331
763000
2000
с половин ден.
13:00
We prescribeпредписват these drugsнаркотици, we stockpileрезерва them for emergenciesизвънредни ситуации
332
765000
2000
Ние предписваме тези лекарства и ги съхраняваме за спешни случаи,
13:02
on the understandingразбиране that they will reduceнамаляване на the numberномер of complicationsусложнения,
333
767000
2000
с разбирането, че те ще намалят броя на усложненията,
13:04
whichкойто meansсредства pneumoniaпневмония and whichкойто meansсредства deathсмърт.
334
769000
3000
които за нас означават пневмония или означават смърт.
13:07
The infectiousинфекциозни diseasesзаболявания CochraneCochrane GroupГрупа, whichкойто are basedбазиран in ItalyИталия,
335
772000
3000
Инфекциозните заболявания, за които групата Кохрейн, която е базирана в Италия,
13:10
has been tryingопитвайки to get
336
775000
2000
се опитва да събере
13:12
the fullпълен dataданни in a usableизползваем formформа out of the drugлекарство companiesкомпании
337
777000
3000
в използваем формат всички данни от фармацевтичните компании,
13:15
so that they can make a fullпълен decisionрешение
338
780000
3000
за да могат да направят заключението
13:18
about whetherдали this drugлекарство is effectiveефективен or not,
339
783000
2000
дали това лекарство е ефективно или не,
13:20
and they'veте имат not been ableспособен to get that informationинформация.
340
785000
3000
но не са могли да получат тази информация.
13:23
This is undoubtedlyнесъмнено
341
788000
2000
Неуспоримо е, че това е
13:25
the singleединичен biggestНай-големият ethicalетичен problemпроблем
342
790000
3000
най-големият морален проблем,
13:28
facingизправени пред medicineмедицина todayднес.
343
793000
2000
пред който е изправена медицината днес.
13:30
We cannotне мога make decisionsрешения
344
795000
3000
Ние не можем да взимаме решения,
13:33
in the absenceотсъствие of all of the informationинформация.
345
798000
4000
когато информацията не е пълна.
13:37
So it's a little bitмалко difficultтруден from there
346
802000
3000
Малко ми е трудно сега
13:40
to spinвъртене in some kindмил of positiveположителен conclusionзаключение.
347
805000
4000
да достигна до по-позитивно заключение.
13:44
But I would say this:
348
809000
4000
Но ще кажа това:
13:48
I think that sunlightслънчева светлина
349
813000
3000
мисля, че слънчевата светлина
13:51
is the bestнай-доброто disinfectantдезинфектант.
350
816000
2000
е най-добрият дезинфектант.
13:53
All of these things are happeningслучва in plainобикновен sightгледка,
351
818000
3000
Всичко това се случва пред очите ни
13:56
and they're all protectedзащитени
352
821000
2000
и е предпазвано от
13:58
by a forceсила fieldполе of tediousnesstediousness.
353
823000
3000
силовото поле на ненамесата.
14:01
And I think, with all of the problemsпроблеми in scienceнаука,
354
826000
2000
Мисля, че за всички проблеми в науката,
14:03
one of the bestнай-доброто things that we can do
355
828000
2000
това което можем да направим
14:05
is to liftвдигам up the lidкапак,
356
830000
2000
е да отворим капака,
14:07
fingerпръст на ръката around in the mechanicsмеханика and peerнадничам in.
357
832000
2000
да поразбутаме механизма и да се вгледаме внимателно.
14:09
Thank you very much.
358
834000
2000
Благодаря.
14:11
(ApplauseАплодисменти)
359
836000
3000
(Аплодисменти)
Translated by Mariya Angelova
Reviewed by Anton Hikov

▲Back to top

ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com