ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com
TEDGlobal 2011

Ben Goldacre: Battling bad science

Ben Goldacre: Luchando contra la mala ciencia

Filmed:
2,713,579 views

Todos los días salen nuevas noticias de consejos para la salud, pero ¿cómo se puede saber si están en lo cierto? El médico y epidemiólogo Ben Goldacre nos cuenta, a gran velocidad, las formas en que puede tergiversarse la evidencia; desde afirmaciones totalmente obvias de nutrición hasta trucos muy sutiles de la industria farmacéutica.
- Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks. Full bio

Double-click the English transcript below to play the video.

00:15
So I'm a doctordoctor, but I kindtipo of slippeddeslizado sidewaysoblicuo into researchinvestigación,
0
0
3000
Bien, soy doctor, pero me incliné hacia la investigación
00:18
and now I'm an epidemiologistepidemiólogo.
1
3000
2000
y ahora soy epidemiólogo.
00:20
And nobodynadie really knowssabe what epidemiologyepidemiología is.
2
5000
2000
La verdad es que nadie sabe bien qué es la epidemiología.
00:22
EpidemiologyEpidemiología is the scienceciencia of how we know in the realreal worldmundo
3
7000
3000
Es la ciencia para saber en el mundo real
00:25
if something is good for you or badmalo for you.
4
10000
2000
si algo es bueno o malo para uno.
00:27
And it's bestmejor understoodentendido throughmediante exampleejemplo
5
12000
2000
Se entiende mejor con un ejemplo:
00:29
as the scienceciencia of those crazyloca, wackychiflado newspaperperiódico headlinestitulares.
6
14000
5000
es la ciencia de los titulares descabellados en los periódicos.
00:34
And these are just some of the examplesejemplos.
7
19000
2000
Veamos ejemplos.
00:36
These are from the DailyDiario MailCorreo. EveryCada countrypaís in the worldmundo has a newspaperperiódico like this.
8
21000
3000
Esto es del Daily Mail. Cada país tiene un periódico así.
00:39
It has this bizarreextraño, ongoingen marcha philosophicalfilosófico projectproyecto
9
24000
3000
Tiene un proyecto filosófico estrafalario en curso
00:42
of dividingdivisor all the inanimateinanimado objectsobjetos in the worldmundo
10
27000
2000
de dividir los objetos inanimados del mundo
00:44
into the onesunos that eitherya sea causeporque or preventevitar cancercáncer.
11
29000
3000
en los que previenen o los que provocan cáncer.
00:47
So here are some of the things they said causeporque cancercáncer recentlyrecientemente:
12
32000
2000
Estas son cosas que dijeron recientemente que provocan cáncer:
00:49
divorcedivorcio, Wi-FiWifi, toiletriesartículos de aseo and coffeecafé.
13
34000
2000
divorcio, wi-fi, artículos de aseo y café.
00:51
Here are some of the things they say preventspreviene cancercáncer:
14
36000
2000
Y estas dijeron que lo previenen:
00:53
crustscostras, redrojo pepperpimienta, licoriceregaliz and coffeecafé.
15
38000
2000
corteza, pimienta roja, regaliz y café.
00:55
So alreadyya you can see there are contradictionscontradicciones.
16
40000
2000
Ya pueden ver que hay contradicciones.
00:57
Coffeecafé bothambos causescausas and preventspreviene cancercáncer.
17
42000
2000
El café provoca y previene el cáncer.
00:59
And as you startcomienzo to readleer on, you can see
18
44000
2000
Y, a medida que continúan leyendo, pueden observar
01:01
that maybe there's some kindtipo of politicalpolítico valencevalencia behinddetrás some of this.
19
46000
3000
que quizá haya alguna forma de valencia política detrás de esto.
01:04
So for womenmujer, houseworktareas del hogar preventspreviene breastpecho cancercáncer,
20
49000
2000
Para las mujeres, los quehaceres previenen el cáncer de mama,
01:06
but for menhombres, shoppingcompras could make you impotentimpotente.
21
51000
3000
pero, para los hombres, ir de compras puede hacerlos impotentes.
01:09
So we know that we need to startcomienzo
22
54000
3000
Por eso debemos empezar
01:12
unpickingdescosido the scienceciencia behinddetrás this.
23
57000
3000
a desentrañar la ciencia subyacente.
01:15
And what I hopeesperanza to showespectáculo
24
60000
2000
Y espero mostrarles
01:17
is that unpickingdescosido dodgyastuto claimsreclamaciones,
25
62000
2000
que deshacer estas afirmaciones arriesgadas,
01:19
unpickingdescosido the evidenceevidencia behinddetrás dodgyastuto claimsreclamaciones,
26
64000
2000
deshacer la evidencia que subyace a estas afirmaciones,
01:21
isn't a kindtipo of nastyasqueroso carpingcriticón activityactividad;
27
66000
3000
no es refunfuñar con mala intención;
01:24
it's sociallysocialmente usefulútil,
28
69000
2000
socialmente es útil
01:26
but it's alsoademás an extremelyextremadamente valuablevalioso
29
71000
2000
pero también es una herramienta aclaratoria,
01:28
explanatoryexplicativo toolherramienta.
30
73000
2000
extremadamente valiosa.
01:30
Because realreal scienceciencia is all about
31
75000
2000
Porque la verdadera ciencia consiste
01:32
criticallycríticamente appraisingevaluando the evidenceevidencia for somebodyalguien else'sde otra manera positionposición.
32
77000
2000
en evaluar la evidencia de manera crítica ante la postura de otro.
01:34
That's what happenssucede in academicacadémico journalsrevistas.
33
79000
2000
Esto sucede en las publicaciones académicas.
01:36
That's what happenssucede at academicacadémico conferencesconferencias.
34
81000
2000
Es lo que sucede en las conferencias académicas.
01:38
The Q&A sessionsesión after a post-oppostoperatorio presentspresenta datadatos
35
83000
2000
Los debates luego de un postoperatorio
01:40
is oftena menudo a bloodsangre bathbañera.
36
85000
2000
son normalmente una batalla campal.
01:42
And nobodynadie mindsmentes that. We activelyactivamente welcomeBienvenido it.
37
87000
2000
Y a nadie le molesta. La recibimos con gusto.
01:44
It's like a consentingconsentimiento intellectualintelectual S&M activityactividad.
38
89000
3000
Es como una actividad intelectual sadomasoquista consensuada.
01:47
So what I'm going to showespectáculo you
39
92000
2000
Así que voy a mostrarles
01:49
is all of the mainprincipal things,
40
94000
2000
las partes principales,
01:51
all of the mainprincipal featurescaracteristicas of my disciplinedisciplina --
41
96000
2000
las características principales de mi disciplina...
01:53
evidence-basedbasado en evidencia medicinemedicina.
42
98000
2000
la medicina basada en evidencias.
01:55
And I will talk you throughmediante all of these
43
100000
2000
Voy a guiarlos
01:57
and demonstratedemostrar how they work,
44
102000
2000
y demostrarles cómo funcionan,
01:59
exclusivelyexclusivamente usingutilizando examplesejemplos of people gettingconsiguiendo stuffcosas wrongincorrecto.
45
104000
3000
exclusivamente usando ejemplos de personas que malinterpretan las cosas.
02:02
So we'llbien startcomienzo with the absoluteabsoluto weakestmás débil formformar of evidenceevidencia knownconocido to man,
46
107000
3000
Empecemos con la forma más débil de evidencia conocida por el hombre,
02:05
and that is authorityautoridad.
47
110000
2000
la autoridad.
02:07
In scienceciencia, we don't carecuidado how manymuchos lettersletras you have after your namenombre.
48
112000
3000
En la ciencia, no nos importa cual sea tu apellido.
02:10
In scienceciencia, we want to know what your reasonsrazones are for believingcreyendo something.
49
115000
3000
En la ciencia, queremos saber cuáles son las razones para creer algo.
02:13
How do you know that something is good for us
50
118000
2000
¿Cómo sabemos si algo es bueno...
02:15
or badmalo for us?
51
120000
2000
...o malo para nosotros?
02:17
But we're alsoademás unimpressedpoco impresionado by authorityautoridad,
52
122000
2000
La autoridad tampoco nos convence
02:19
because it's so easyfácil to contriveidear.
53
124000
2000
porque es muy sencillo inventarla.
02:21
This is somebodyalguien calledllamado DrDr. GillianGillian McKeithMcKeith PhPh.D,
54
126000
2000
Esta es la Dra. Gillian McKeith
02:23
or, to give her fullcompleto medicalmédico titletítulo, GillianGillian McKeithMcKeith.
55
128000
3000
o, para darles su título médico completo, Gillian McKeith.
02:26
(LaughterRisa)
56
131000
3000
(Risas)
02:29
Again, everycada countrypaís has somebodyalguien like this.
57
134000
2000
Y claro, cada país tiene a alguien así.
02:31
She is our TVtelevisión dietdieta gurugurú.
58
136000
2000
Ella es nuestra nutricionista y gurú mediática.
02:33
She has massivemasivo fivecinco seriesserie of prime-timehora estelar televisiontelevisión,
59
138000
3000
Tiene 5 series de TV masivas en horario pico de audiencia,
02:36
givingdando out very lavishprodigar and exoticexótico healthsalud adviceConsejo.
60
141000
3000
dando consejos de salud espléndidos y exóticos.
02:39
She, it turnsvueltas out, has a non-accreditedno acreditado correspondencecorrespondencia coursecurso PhPh.D.
61
144000
3000
Resulta que ella tiene un doctorado no oficial por correspondencia,
02:42
from somewherealgun lado in AmericaAmerica.
62
147000
2000
de algún lugar de Estados Unidos.
02:44
She alsoademás boastspresume that she's a certifiedcertificado professionalprofesional membermiembro
63
149000
2000
También se jacta de ser miembro profesional certificado
02:46
of the Americanamericano AssociationAsociación of NutritionalNutricional ConsultantsConsultores,
64
151000
2000
de la American Association of Nutritional Consultants,
02:48
whichcual soundssonidos very glamorousatractivo and excitingemocionante.
65
153000
2000
lo cual suena muy fascinante y glamoroso.
02:50
You get a certificatecertificado and everything.
66
155000
2000
Te dan un certificado y todo.
02:52
This one belongspertenece to my deadmuerto catgato HettiHetti. She was a horriblehorrible catgato.
67
157000
2000
Esta es Hetti, mi difunta gata; una gata espantosa.
02:54
You just go to the websitesitio web, fillllenar out the formformar,
68
159000
2000
Uno entra al sitio web, llena el formulario,
02:56
give them $60, and it arrivesllega in the postenviar.
69
161000
2000
les paga 60 dólares y se lo envían por correo.
02:58
Now that's not the only reasonrazón that we think this personpersona is an idiotidiota.
70
163000
2000
Pero, no es la única razón por la cual pensamos que esta persona es una idiota.
03:00
She alsoademás goesva and saysdice things like,
71
165000
2000
También sale a decir cosas tales como
03:02
you should eatcomer lots of darkoscuro greenverde leaveshojas,
72
167000
2000
que deberíamos comer muchas hojas verde oscuras,
03:04
because they containContiene lots of chlorophyllclorofila, and that will really oxygenateoxigenar your bloodsangre.
73
169000
2000
porque contienen mucha clorofila, y eso ayuda a oxigenar la sangre.
03:06
And anybodynadie who'squien es donehecho schoolcolegio biologybiología remembersrecuerda
74
171000
2000
Y cualquiera que haya estudiando biología en el colegio recuerda
03:08
that chlorophyllclorofila and chloroplastscloroplastos
75
173000
2000
que la clorofila y los cloroplastos
03:10
only make oxygenoxígeno in sunlightluz de sol,
76
175000
2000
solo producen oxígeno a la luz del sol,
03:12
and it's quitebastante darkoscuro in your bowelsintestinos after you've eatencomido spinachEspinacas.
77
177000
3000
y que en sus intestinos están bastante oscuros para la espinaca.
03:15
NextSiguiente, we need properapropiado scienceciencia, properapropiado evidenceevidencia.
78
180000
3000
Después, hacen falta ciencia y evidencia apropiadas.
03:18
So, "Redrojo winevino can help preventevitar breastpecho cancercáncer."
79
183000
2000
"El vino tinto ayuda a prevenir el cáncer de mama".
03:20
This is a headlinetitular from the DailyDiario TelegraphTelégrafo in the U.K.
80
185000
2000
Este es un titular del Daily Telegraph del Reino Unido.
03:22
"A glassvaso of redrojo winevino a day could help preventevitar breastpecho cancercáncer."
81
187000
3000
"Un vaso de vino tinto por día contribuiría a la prevención del cáncer de mama".
03:25
So you go and find this paperpapel, and what you find
82
190000
2000
Entonces vemos este diario y descubrimos
03:27
is it is a realreal piecepieza of scienceciencia.
83
192000
2000
que es un verdadero artículo científico.
03:29
It is a descriptiondescripción of the changescambios in one enzymeenzima
84
194000
3000
Es la descripción de los cambios en una enzima
03:32
when you dripgoteo a chemicalquímico extractedextraído from some redrojo grapeuva skinpiel
85
197000
3000
cuando se le coloca una gota de químico extraído de la piel de una uva negra
03:35
ontosobre some cancercáncer cellsCélulas
86
200000
2000
en células cancerosas
03:37
in a dishplato on a benchbanco in a laboratorylaboratorio somewherealgun lado.
87
202000
3000
en una bandeja en algún laboratorio.
03:40
And that's a really usefulútil thing to describedescribir
88
205000
2000
Esto es algo muy útil para describir
03:42
in a scientificcientífico paperpapel,
89
207000
2000
en una publicación científica,
03:44
but on the questionpregunta of your ownpropio personalpersonal riskriesgo
90
209000
2000
pero en cuanto al riesgo personal
03:46
of gettingconsiguiendo breastpecho cancercáncer if you drinkbeber redrojo winevino,
91
211000
2000
de contraer cáncer de mama si tomamos vino tinto,
03:48
it tellsdice you absolutelyabsolutamente buggertío all.
92
213000
2000
no nos está diciendo absolutamente nada.
03:50
ActuallyActualmente, it turnsvueltas out that your riskriesgo of breastpecho cancercáncer
93
215000
2000
Y, resulta que el riesgo de contraer cáncer de mama
03:52
actuallyactualmente increasesaumenta slightlyligeramente
94
217000
2000
aumenta ligeramente
03:54
with everycada amountcantidad of alcoholalcohol that you drinkbeber.
95
219000
2000
si aumenta la cantidad de alcohol consumido.
03:56
So what we want is studiesestudios in realreal humanhumano people.
96
221000
4000
Queremos estudios hechos en humanos reales.
04:00
And here'saquí está anotherotro exampleejemplo.
97
225000
2000
Aquí hay un ejemplo
04:02
This is from Britain'sGran Bretaña leadinglíder dietdieta and nutritionistnutricionista in the DailyDiario MirrorEspejo,
98
227000
3000
del destacado nutricionista británico del Daily Mirror,
04:05
whichcual is our secondsegundo biggestmás grande sellingde venta newspaperperiódico.
99
230000
2000
nuestro segundo diario más vendido.
04:07
"An Australianaustraliano studyestudiar in 2001
100
232000
2000
"Un estudio realizado en Australia en 2001
04:09
foundencontró that oliveaceituna oilpetróleo in combinationcombinación with fruitsfrutas, vegetablesvegetales and pulsespulsos
101
234000
2000
revela que el aceite de oliva, con frutas, vegetales y legumbres
04:11
offersofertas measurablemensurable protectionproteccion againsten contra skinpiel wrinklingsarrugas."
102
236000
2000
sirve para prevenir arrugas en la piel".
04:13
And then they give you adviceConsejo:
103
238000
2000
Y luego nos aconseja:
04:15
"If you eatcomer oliveaceituna oilpetróleo and vegetablesvegetales, you'lltu vas a have fewermenos skinpiel wrinklesarrugas."
104
240000
2000
"Si comemos aceite de oliva y vegetales, vamos a tener menos arrugas".
04:17
And they very helpfullyamablemente tell you how to go and find the paperpapel.
105
242000
2000
Y nos dicen dónde encontrar la publicación.
04:19
So you go and find the paperpapel, and what you find is an observationalde observación studyestudiar.
106
244000
3000
Y uno la lee y encuentra un estudio de observación.
04:22
ObviouslyObviamente nobodynadie has been ablepoder
107
247000
2000
Por supuesto, nadie ha podido
04:24
to go back to 1930,
108
249000
2000
volver a 1930,
04:26
get all the people bornnacido in one maternitymaternidad unitunidad,
109
251000
3000
y hacer que los recién nacidos de una maternidad,
04:29
and halfmitad of them eatcomer lots of fruitFruta and vegveg and oliveaceituna oilpetróleo,
110
254000
2000
la mitad coman muchas frutas y verduras y aceite de oliva,
04:31
and then halfmitad of them eatcomer McDonald'sMcDonald's,
111
256000
2000
y que la otra mitad coma McDonald's,
04:33
and then we see how manymuchos wrinklesarrugas you've got laterluego.
112
258000
2000
para después ver cuántas arrugas hay al final.
04:35
You have to take a snapshotinstantánea of how people are now.
113
260000
2000
Hay que muestrear cuántas personas hay ahora.
04:37
And what you find is, of coursecurso,
114
262000
2000
Y, claro, quienes comen
04:39
people who eatcomer vegveg and oliveaceituna oilpetróleo have fewermenos skinpiel wrinklesarrugas.
115
264000
3000
vegetales y aceite de oliva tienen menos arrugas en la piel
04:42
But that's because people who eatcomer fruitFruta and vegveg and oliveaceituna oilpetróleo,
116
267000
3000
porque quienes consumen frutas, vegetales y aceite de oliva
04:45
they're freaksmonstruos, they're not normalnormal, they're like you;
117
270000
3000
son raros, no son normales, son como Uds;
04:48
they come to eventseventos like this.
118
273000
2000
vienen a eventos como éste.
04:50
They are poshelegante, they're wealthyrico, they're lessMenos likelyprobable to have outdooral aire libre jobstrabajos,
119
275000
3000
Son elegantes, adinerados, trabajan menos al aire libre,
04:53
they're lessMenos likelyprobable to do manualmanual laborlabor,
120
278000
2000
hacen menos labores manuales,
04:55
they have better socialsocial supportapoyo, they're lessMenos likelyprobable to smokefumar --
121
280000
2000
tienen mejor asistencia social, fuman menos...
04:57
so for a wholetodo hostanfitrión of fascinatingfascinante, interlockingenclavamiento
122
282000
2000
por una cantidad de razones sociales,
04:59
socialsocial, politicalpolítico and culturalcultural reasonsrazones,
123
284000
2000
culturales y políticas, fascinantes y entrelazadas,
05:01
they are lessMenos likelyprobable to have skinpiel wrinklesarrugas.
124
286000
2000
es menos probable de que tengan arrugas en la piel.
05:03
That doesn't mean that it's the vegetablesvegetales or the oliveaceituna oilpetróleo.
125
288000
2000
No significa que sea por los vegetales o el aceite de oliva.
05:05
(LaughterRisa)
126
290000
2000
(Risas)
05:07
So ideallyidealmente what you want to do is a trialjuicio.
127
292000
3000
Idealmente, uno querría hacer es un ensayo.
05:10
And everybodytodos thinkspiensa they're very familiarfamiliar with the ideaidea of a trialjuicio.
128
295000
2000
Todos piensan que están muy familiarizados con la idea de ensayo.
05:12
TrialsPruebas are very oldantiguo. The first trialjuicio was in the BibleBiblia -- DanielDaniel 1:12.
129
297000
3000
Los ensayos son muy antiguos. El primero está en la Biblia, Daniel 1:12.
05:15
It's very straightforwardsencillo -- you take a bunchmanojo of people, you splitdivisión them in halfmitad,
130
300000
2000
Es muy directo, se toma un grupo de gente, se los divide en 2
05:17
you treattratar one groupgrupo one way, you treattratar the other groupgrupo the other way,
131
302000
2000
tratamos un grupo de una forma y al otro de otra forma
05:19
and a little while laterluego, you followseguir them up
132
304000
2000
y poco después, se les hace un seguimiento
05:21
and see what happenedsucedió to eachcada of them.
133
306000
2000
para ver qué pasó con cada grupo.
05:23
So I'm going to tell you about one trialjuicio,
134
308000
2000
Así que voy a contarles de un ensayo,
05:25
whichcual is probablyprobablemente the mostmás well-reportedbien informado trialjuicio
135
310000
2000
que seguramente es el ensayo más célebre
05:27
in the U.K. newsNoticias mediamedios de comunicación over the pastpasado decadedécada.
136
312000
2000
de la prensa del Reino Unido en la última década.
05:29
And this is the trialjuicio of fishpescado oilpetróleo pillspastillas.
137
314000
2000
Es el ensayo con píldoras de aceite de pescado.
05:31
And the claimReclamación was fishpescado oilpetróleo pillspastillas improvemejorar schoolcolegio performanceactuación and behaviorcomportamiento
138
316000
2000
Se decía que las píldoras mejoran el rendimiento en la escuela
05:33
in mainstreamcorriente principal childrenniños.
139
318000
2000
y el comportamiento de la mayoría de los niños.
05:35
And they said, "We'veNosotros tenemos donehecho a trialjuicio.
140
320000
2000
Dijeron: "Hemos hecho el ensayo.
05:37
All the previousanterior trialsensayos were positivepositivo, and we know this one'suno gonna be too."
141
322000
2000
Los ensayos anteriores fueron positivos y sabemos que éste también lo será".
05:39
That should always ringanillo alarmalarma bellscampanas.
142
324000
2000
Esto debería ser señal de alarma.
05:41
Because if you alreadyya know the answerresponder to your trialjuicio, you shouldn'tno debería be doing one.
143
326000
3000
Porque si ya se sabe el resultado del ensayo, no deberíamos estar haciéndolo.
05:44
EitherYa sea you've riggedamañado it by designdiseño,
144
329000
2000
O está manipulado desde el diseño,
05:46
or you've got enoughsuficiente datadatos so there's no need to randomizealeatorizar people anymorenunca más.
145
331000
3000
o hay suficiente información y ya no hay necesidad de aleatorizar personas.
05:49
So this is what they were going to do in theirsu trialjuicio.
146
334000
3000
Esto es lo que iban a hacer en este ensayo.
05:52
They were takingtomando 3,000 childrenniños,
147
337000
2000
Iban a tomar a 3.000 niños,
05:54
they were going to give them all these hugeenorme fishpescado oilpetróleo pillspastillas,
148
339000
2000
iban a darles estas enormes píldoras,
05:56
sixseis of them a day,
149
341000
2000
6 al día,
05:58
and then a yearaño laterluego, they were going to measuremedida theirsu schoolcolegio examexamen performanceactuación
150
343000
3000
y, un año después, iban a evaluar su rendimiento en exámenes escolares
06:01
and comparecomparar theirsu schoolcolegio examexamen performanceactuación
151
346000
2000
y comparar este rendimiento
06:03
againsten contra what they predictedpredicho theirsu examexamen performanceactuación would have been
152
348000
2000
con la previsión del rendimiento de los mismos
06:05
if they hadn'tno tenía had the pillspastillas.
153
350000
3000
de no haber tomado las píldoras.
06:08
Now can anybodynadie spotlugar a flawfalla in this designdiseño?
154
353000
3000
¿Alguien puede identificar la falla en este diseño?
06:11
And no professorsprofesores of clinicalclínico trialjuicio methodologymetodología
155
356000
3000
Ningún profesor en metodología de ensayos clínicos
06:14
are allowedpermitido to answerresponder this questionpregunta.
156
359000
2000
tiene permitido contestar esta pregunta.
06:16
So there's no controlcontrolar; there's no controlcontrolar groupgrupo.
157
361000
2000
No hay control; no hay un grupo de control.
06:18
But that soundssonidos really techietechie.
158
363000
2000
Pero esto suena muy técnico.
06:20
That's a technicaltécnico termtérmino.
159
365000
2000
Es terminología técnica.
06:22
The kidsniños got the pillspastillas, and then theirsu performanceactuación improvedmejorado.
160
367000
2000
Los niños tomaron las pastillas y su rendimiento mejoró.
06:24
What elsemás could it possiblyposiblemente be if it wasn'tno fue the pillspastillas?
161
369000
3000
¿Qué otra cosa podría haber sido, si no fueron las píldoras?
06:27
They got oldermayor. We all developdesarrollar over time.
162
372000
3000
Crecieron. Se desarrollaron a lo largo del tiempo.
06:30
And of coursecurso, alsoademás there's the placeboplacebo effectefecto.
163
375000
2000
Y, por supuesto, está también el efecto placebo.
06:32
The placeboplacebo effectefecto is one of the mostmás fascinatingfascinante things in the wholetodo of medicinemedicina.
164
377000
2000
El efecto placebo es una de las cosas más fascinantes de toda la medicina.
06:34
It's not just about takingtomando a pillpíldora, and your performanceactuación and your paindolor gettingconsiguiendo better.
165
379000
3000
No sólo se trata de tomar una píldora y de que mejoren el rendimiento y dolor.
06:37
It's about our beliefscreencias and expectationsesperanzas de heredar.
166
382000
2000
Se trata de nuestras expectativas y creencias.
06:39
It's about the culturalcultural meaningsentido of a treatmenttratamiento.
167
384000
2000
Se trata del sentido cultural de un tratamiento.
06:41
And this has been demonstrateddemostrado in a wholetodo raftbalsa of fascinatingfascinante studiesestudios
168
386000
3000
Y esto ha sido demostrado en un montón de estudios fascinantes
06:44
comparingcomparando one kindtipo of placeboplacebo againsten contra anotherotro.
169
389000
3000
comparando un tipo de placebo contra otro.
06:47
So we know, for exampleejemplo, that two sugarazúcar pillspastillas a day
170
392000
2000
Entonces sabemos, por ejemplo, que 2 píldoras de azúcar por día
06:49
are a more effectiveeficaz treatmenttratamiento for gettingconsiguiendo rideliminar of gastricgástrico ulcersúlceras
171
394000
2000
es un tratamiento más efectivo para eliminar úlceras gástricas
06:51
than one sugarazúcar pillpíldora.
172
396000
2000
que 1 píldora de azúcar.
06:53
Two sugarazúcar pillspastillas a day beatslatidos one sugarazúcar pillpíldora a day.
173
398000
2000
Dos por día son mejores que una por día.
06:55
And that's an outrageousindignante and ridiculousridículo findinghallazgo, but it's truecierto.
174
400000
3000
Es un hallazgo exorbitante y ridículo, pero es cierto.
06:58
We know from threeTres differentdiferente studiesestudios on threeTres differentdiferente typestipos of paindolor
175
403000
2000
De tres estudios diferentes sabemos que para tres tipos de dolor
07:00
that a saltwateragua salada injectioninyección is a more effectiveeficaz treatmenttratamiento for paindolor
176
405000
3000
una inyección de agua con sal es más efectiva para el dolor
07:03
than takingtomando a sugarazúcar pillpíldora, takingtomando a dummytonto pillpíldora that has no medicinemedicina in it --
177
408000
4000
que una píldora de azúcar, que tomar una píldora placebo sin medicamento;
07:07
not because the injectioninyección or the pillspastillas do anything physicallyfísicamente to the bodycuerpo,
178
412000
3000
no porque la inyección o las píldoras hagan algo físico en el cuerpo,
07:10
but because an injectioninyección feelssiente like a much more dramaticdramático interventionintervención.
179
415000
3000
sino porque una inyección parece una intervención más drástica.
07:13
So we know that our beliefscreencias and expectationsesperanzas de heredar
180
418000
2000
Sabemos que nuestras expectativas y creencias
07:15
can be manipulatedmanipulado,
181
420000
2000
pueden manipularse,
07:17
whichcual is why we do trialsensayos
182
422000
2000
razón por la que hacemos estos ensayos
07:19
where we controlcontrolar againsten contra a placeboplacebo --
183
424000
2000
donde experimentamos con un placebo;
07:21
where one halfmitad of the people get the realreal treatmenttratamiento
184
426000
2000
la mitad de un grupo recibe el tratamiento real
07:23
and the other halfmitad get placeboplacebo.
185
428000
2000
y la otra mitad recibe el placebo.
07:25
But that's not enoughsuficiente.
186
430000
3000
Pero eso no es suficiente.
07:28
What I've just shownmostrado you are examplesejemplos of the very simplesencillo and straightforwardsencillo waysformas
187
433000
3000
Lo que acabo de mostrarles son sólo ejemplos de formas sencillas y directas
07:31
that journalistsperiodistas and foodcomida supplementsuplemento pillpíldora peddlersvendedores ambulantes
188
436000
2000
que los periodistas, y los comerciantes de suplementos dietarios
07:33
and naturopathsnaturópatas
189
438000
2000
y naturópatas
07:35
can distortdistorsionar evidenceevidencia for theirsu ownpropio purposespropósitos.
190
440000
3000
pueden usar para tergiversar la evidencia para su propio interés.
07:38
What I find really fascinatingfascinante
191
443000
2000
Encuentro realmente fascinante
07:40
is that the pharmaceuticalfarmacéutico industryindustria
192
445000
2000
que la industria farmacéutica
07:42
usesusos exactlyexactamente the samemismo kindsclases of trickstrucos and devicesdispositivos,
193
447000
2000
use los mismos trucos e instrumentos
07:44
but slightlyligeramente more sophisticatedsofisticado versionsversiones of them,
194
449000
3000
pero en versiones un poco más sofisticadas,
07:47
in orderorden to distortdistorsionar the evidenceevidencia that they give to doctorsdoctores and patientspacientes,
195
452000
3000
para tergiversar la evidencia que le dan a los médicos y pacientes,
07:50
and whichcual we use to make vitallyvitalmente importantimportante decisionsdecisiones.
196
455000
3000
y que usamos para tomar decisiones de importancia vital.
07:53
So firstlyen primer lugar, trialsensayos againsten contra placeboplacebo:
197
458000
2000
En primer lugar, los ensayos con placebos:
07:55
everybodytodos thinkspiensa they know that a trialjuicio should be
198
460000
2000
todos piensan que saben que un ensayo debería ser
07:57
a comparisoncomparación of your newnuevo drugdroga againsten contra placeboplacebo.
199
462000
2000
una comparación de drogas nuevas contra un placebo.
07:59
But actuallyactualmente in a lot of situationssituaciones that's wrongincorrecto.
200
464000
2000
Pero, de hecho, en muchos casos eso está mal.
08:01
Because oftena menudo we alreadyya have a very good treatmenttratamiento that is currentlyactualmente availabledisponible,
201
466000
3000
Porque, con frecuencia, ya tenemos disponible un muy buen tratamiento,
08:04
so we don't want to know that your alternativealternativa newnuevo treatmenttratamiento
202
469000
2000
entonces no queremos saber si el nuevo tratamiento alternativo
08:06
is better than nothing.
203
471000
2000
es mejor que nada.
08:08
We want to know that it's better than the bestmejor currentlyactualmente availabledisponible treatmenttratamiento that we have.
204
473000
3000
Queremos saber si es superior al mejor tratamiento disponible que ya tenemos.
08:11
And yettodavía, repeatedlyrepetidamente, you consistentlyconsecuentemente see people doing trialsensayos
205
476000
3000
Pero aún así, reiteradamente, todavía se hacen ensayos
08:14
still againsten contra placeboplacebo.
206
479000
2000
comparando contra placebos.
08:16
And you can get licenselicencia to bringtraer your drugdroga to marketmercado
207
481000
2000
Se puede obtener una licencia para sacar una droga al mercado
08:18
with only datadatos showingdemostración that it's better than nothing,
208
483000
2000
con solo información que demuestre que es mejor que nada
08:20
whichcual is uselessinútil for a doctordoctor like me tryingmolesto to make a decisiondecisión.
209
485000
3000
algo inútil para un médico como yo que trata de tomar una decisión.
08:23
But that's not the only way you can rigaparejo your datadatos.
210
488000
2000
Pero no es la única forma de manipular información.
08:25
You can alsoademás rigaparejo your datadatos
211
490000
2000
También puede manipularse
08:27
by makingfabricación the thing you comparecomparar your newnuevo drugdroga againsten contra
212
492000
2000
haciendo que contra lo que comparamos la nueva droga
08:29
really rubbishbasura.
213
494000
2000
sea basura.
08:31
You can give the competingcompitiendo drugdroga in too lowbajo a dosedosis,
214
496000
2000
Dando la droga competidora en dosis demasiado bajas,
08:33
so that people aren'tno son properlycorrectamente treatedtratado.
215
498000
2000
asi las personas no reciben el tratamiento adecuado.
08:35
You can give the competingcompitiendo drugdroga in too highalto a dosedosis,
216
500000
2000
Dando la droga competidora en dosis demasiado altas,
08:37
so that people get sidelado effectsefectos.
217
502000
2000
para que las personas tengan efectos secundarios.
08:39
And this is exactlyexactamente what happenedsucedió
218
504000
2000
Y esto fue exactamente lo que sucedió
08:41
whichcual antipsychoticantipsicótico medicationmedicación for schizophreniaesquizofrenia.
219
506000
2000
con medicamentos antipsicóticos para la esquizofrenia.
08:43
20 yearsaños agohace, a newnuevo generationGeneracion of antipsychoticantipsicótico drugsdrogas were broughttrajo in
220
508000
3000
Hace 20 años salió al mercado una nueva generación de antipsicóticos
08:46
and the promisepromesa was that they would have fewermenos sidelado effectsefectos.
221
511000
3000
y la promesa era que tendrían menos efectos secundarios.
08:49
So people setconjunto about doing trialsensayos of these newnuevo drugsdrogas
222
514000
2000
Se hacían ensayos con estas nuevas drogas
08:51
againsten contra the oldantiguo drugsdrogas,
223
516000
2000
comparándolas con las viejas,
08:53
but they gavedio the oldantiguo drugsdrogas in ridiculouslyridículamente highalto dosesdosis --
224
518000
2000
suministraban las viejas drogas en dosis ridículamente altas,
08:55
20 milligramsmiligramos a day of haloperidolhaloperidol.
225
520000
2000
20 miligramos por día de haloperidol.
08:57
And it's a foregoneresultado conclusionconclusión,
226
522000
2000
Y es una conclusión previsible,
08:59
if you give a drugdroga at that highalto a dosedosis,
227
524000
2000
si se administra una droga en dosis altas,
09:01
that it will have more sidelado effectsefectos and that your newnuevo drugdroga will look better.
228
526000
3000
tendrá más efectos secundarios y eso hará que la nueva droga se destaque.
09:04
10 yearsaños agohace, historyhistoria repeatedrepetido itselfsí mismo, interestinglycuriosamente,
229
529000
2000
Hace 10 años la historia se repitió, es interesante,
09:06
when risperidonerisperidona, whichcual was the first of the new-generationnueva generación antipscyhoticantipsicótico drugsdrogas,
230
531000
3000
cuando la risperidona, el primero de una nueva generación de antipsicóticos,
09:09
camevino off copyrightderechos de autor, so anybodynadie could make copiescopias.
231
534000
3000
no tenía más derechos de autor, así que cualquiera podía imitarlo.
09:12
EverybodyTodos wanted to showespectáculo that theirsu drugdroga was better than risperidonerisperidona,
232
537000
2000
Todos querían demostrar que su droga era mejor que la risperidona,
09:14
so you see a bunchmanojo of trialsensayos comparingcomparando newnuevo antipsychoticantipsicótico drugsdrogas
233
539000
3000
entonces en muchos ensayos se comparaba nuevos antipsicóticos
09:17
againsten contra risperidonerisperidona at eightocho milligramsmiligramos a day.
234
542000
2000
con la risperidona a 8 miligramos por día.
09:19
Again, not an insaneinsano dosedosis, not an illegalilegal dosedosis,
235
544000
2000
De nuevo, no es una dosis alocada, no es ilegal,
09:21
but very much at the highalto endfin of normalnormal.
236
546000
2000
pero es mucho más alta de lo normal.
09:23
And so you're boundligado to make your newnuevo drugdroga look better.
237
548000
3000
Es obvio que hará que la nueva droga se destaque como mejor.
09:26
And so it's no surprisesorpresa that overallen general,
238
551000
3000
No sorprende que, en general,
09:29
industry-fundedfinanciado por la industria trialsensayos
239
554000
2000
los ensayos de las industrias
09:31
are fourlas cuatro timesveces more likelyprobable to give a positivepositivo resultresultado
240
556000
2000
tienen una tendencia 4 veces mayor de dar un resultado positivo
09:33
than independentlyindependientemente sponsoredpatrocinado trialsensayos.
241
558000
3000
que los ensayos independientes.
09:36
But -- and it's a biggrande but --
242
561000
3000
Pero, y es un gran "pero",
09:39
(LaughterRisa)
243
564000
2000
(Risas)
09:41
it turnsvueltas out,
244
566000
2000
tal y como resulta
09:43
when you look at the methodsmétodos used by industry-fundedfinanciado por la industria trialsensayos,
245
568000
3000
cuando se investigan los métodos usados por ensayos de las industrias,
09:46
that they're actuallyactualmente better
246
571000
2000
son de hecho mejores
09:48
than independentlyindependientemente sponsoredpatrocinado trialsensayos.
247
573000
2000
que los usados por ensayos independientes.
09:50
And yettodavía, they always managegestionar to to get the resultresultado that they want.
248
575000
3000
Y aún así, siempre se las arreglan para obtener el resultado que desean.
09:53
So how does this work?
249
578000
2000
¿Cómo funciona esto?
09:55
How can we explainexplique this strangeextraño phenomenonfenómeno?
250
580000
3000
¿Cómo explicar este extraño fenómeno? [¡Qué diablos!]
09:58
Well it turnsvueltas out that what happenssucede
251
583000
2000
Bueno, resulta que lo que sucede
10:00
is the negativenegativo datadatos goesva missingdesaparecido in actionacción;
252
585000
2000
es que la información negativa se pierde en acción;
10:02
it's withheldretenido from doctorsdoctores and patientspacientes.
253
587000
2000
no se la revelan a doctores y pacientes.
10:04
And this is the mostmás importantimportante aspectaspecto of the wholetodo storyhistoria.
254
589000
2000
Y este es el aspecto más importante de toda la historia.
10:06
It's at the topparte superior of the pyramidpirámide of evidenceevidencia.
255
591000
2000
Está en la punta de la pirámide de la evidencia.
10:08
We need to have all of the datadatos on a particularespecial treatmenttratamiento
256
593000
3000
Necesitaríamos toda la información de un tratamiento en particular
10:11
to know whethersi or not it really is effectiveeficaz.
257
596000
2000
para saber si realmente es o no efectivo.
10:13
And there are two differentdiferente waysformas that you can spotlugar
258
598000
2000
Hay dos formas distintas de identificar
10:15
whethersi some datadatos has goneido missingdesaparecido in actionacción.
259
600000
2000
si algo se perdió en acción.
10:17
You can use statisticsestadística, or you can use storiescuentos.
260
602000
3000
Se pueden usar estadísticas, o historias.
10:20
I personallypersonalmente preferpreferir statisticsestadística, so that's what I'm going to do first.
261
605000
2000
Personalmente prefiero las estadísticas, así que eso haré primero.
10:22
This is something calledllamado funnelembudo plottrama.
262
607000
2000
Hay algo llamado gráfico de embudo.
10:24
And a funnelembudo plottrama is a very cleverinteligente way of spottingpunteo
263
609000
2000
El gráfico de embudo es una forma inteligente de identificar
10:26
if smallpequeña negativenegativo trialsensayos have disappeareddesapareció, have goneido missingdesaparecido in actionacción.
264
611000
3000
pequeños ensayos negativos desaparecidos o perdidos en acción.
10:29
So this is a graphgrafico of all of the trialsensayos
265
614000
2000
Este es un gráfico de todos los ensayos
10:31
that have been donehecho on a particularespecial treatmenttratamiento.
266
616000
2000
realizados para un tratamiento en particular.
10:33
And as you go up towardshacia the topparte superior of the graphgrafico,
267
618000
2000
Si observan la parte superior del gráfico,
10:35
what you see is eachcada dotpunto is a trialjuicio.
268
620000
2000
verán que cada punto representa un ensayo.
10:37
And as you go up, those are the biggermás grande trialsensayos, so they'veellos tienen got lessMenos errorerror in them.
269
622000
3000
Y, a medida que suben, estos son los ensayos más grandes, y tienen menos errores.
10:40
So they're lessMenos likelyprobable to be randomlyal azar falsefalso positivespositivos, randomlyal azar falsefalso negativesnegativos.
270
625000
3000
Es menos probable que tengan resultados falsos positivos o negativos al azar.
10:43
So they all clusterracimo togetherjuntos.
271
628000
2000
Entonces estos se agrupan juntos.
10:45
The biggrande trialsensayos are closercerca to the truecierto answerresponder.
272
630000
2000
Los grandes ensayos se acercan más a la verdadera respuesta.
10:47
Then as you go furtherpromover down at the bottomfondo,
273
632000
2000
Y, luego, a medida que bajamos a la parte inferior
10:49
what you can see is, over on this sidelado, the spuriousespurio falsefalso negativesnegativos,
274
634000
3000
lo que vemos es, de este lado, los ficticios falsos negativos,
10:52
and over on this sidelado, the spuriousespurio falsefalso positivespositivos.
275
637000
2000
y de este lado, los ficticios falsos positivos.
10:54
If there is publicationpublicación biasparcialidad,
276
639000
2000
Si hay arbitrariedad en la publicación
10:56
if smallpequeña negativenegativo trialsensayos have goneido missingdesaparecido in actionacción,
277
641000
3000
si los pequeños ensayos negativos se pierden en acción,
10:59
you can see it on one of these graphsgráficos.
278
644000
2000
se puede ver en uno de estos gráficos.
11:01
So you can see here that the smallpequeña negativenegativo trialsensayos
279
646000
2000
Aquí puede verse que los pequeños ensayos negativos
11:03
that should be on the bottomfondo left have disappeareddesapareció.
280
648000
2000
que deberían estar abajo a la izquierda han desaparecido.
11:05
This is a graphgrafico demonstratingdemostrando the presencepresencia of publicationpublicación biasparcialidad
281
650000
3000
Este gráfico demuestra la arbitrariedad de una publicación
11:08
in studiesestudios of publicationpublicación biasparcialidad.
282
653000
2000
en estudios sobre publicaciones arbitrarias.
11:10
And I think that's the funniestel más divertido epidemiologyepidemiología jokebroma
283
655000
2000
Creo que esa es la broma epidemiológica más graciosa
11:12
that you will ever hearoír.
284
657000
2000
que vayan a escuchar.
11:14
That's how you can proveprobar it statisticallyestadísticamente,
285
659000
2000
Así se comprueba estadísticamente,
11:16
but what about storiescuentos?
286
661000
2000
pero ¿qué hay de las historias?
11:18
Well they're heinousatroz, they really are.
287
663000
2000
Bueno, son atroces, de verdad lo son.
11:20
This is a drugdroga calledllamado reboxetinereboxetina.
288
665000
2000
Existe una droga llamada reboxetina.
11:22
This is a drugdroga that I myselfmí mismo have prescribedprescrito to patientspacientes.
289
667000
2000
Es una droga que personalmente he recetado a mis pacientes.
11:24
And I'm a very nerdynerdy doctordoctor.
290
669000
2000
Y soy un médico muy estudioso.
11:26
I hopeesperanza I try to go out of my way to try and readleer and understandentender all the literatureliteratura.
291
671000
3000
Hago lo posible para intentar leer y entender la bibliografía.
11:29
I readleer the trialsensayos on this. They were all positivepositivo. They were all well-conductedbien conducido.
292
674000
3000
Leí los ensayos al respecto. Todos positivos. Todos bien realizados.
11:32
I foundencontró no flawfalla.
293
677000
2000
No encontré ninguna falla.
11:34
UnfortunatelyDesafortunadamente, it turnedconvertido out,
294
679000
2000
Pero resultó que, desafortunadamente,
11:36
that manymuchos of these trialsensayos were withheldretenido.
295
681000
2000
se ocultaron muchos de estos ensayos.
11:38
In facthecho, 76 percentpor ciento
296
683000
2000
De hecho, el 76%
11:40
of all of the trialsensayos that were donehecho on this drugdroga
297
685000
2000
de los ensayos realizados con esta droga
11:42
were withheldretenido from doctorsdoctores and patientspacientes.
298
687000
2000
fueron ocultados a médicos y pacientes.
11:44
Now if you think about it,
299
689000
2000
Si se piensa,
11:46
if I tossedarrojado a coinacuñar a hundredcien timesveces,
300
691000
2000
si yo lanzara una moneda cientos de veces,
11:48
and I'm allowedpermitido to withholdretener from you
301
693000
2000
y se me permitiera ocultarles
11:50
the answersrespuestas halfmitad the timesveces,
302
695000
2000
las respuestas la mitad de las veces,
11:52
then I can convinceconvencer you
303
697000
2000
entonces podría convencerlos
11:54
that I have a coinacuñar with two headscabezas.
304
699000
2000
de que tengo una moneda con 2 caras.
11:56
If we removeretirar halfmitad of the datadatos,
305
701000
2000
Si quito la mitad de la información,
11:58
we can never know what the truecierto effectefecto sizetamaño of these medicinesmedicinas is.
306
703000
3000
jamás sabremos cual es el efecto estadístico verdadero de este medicamento.
12:01
And this is not an isolatedaislado storyhistoria.
307
706000
2000
Y esta no es una historia aislada.
12:03
Around halfmitad of all of the trialjuicio datadatos on antidepressantsantidepresivos has been withheldretenido,
308
708000
4000
Cerca de la mitad de la información de ensayos con antidepresivos está oculta,
12:07
but it goesva way beyondmás allá that.
309
712000
2000
pero va mucho más allá.
12:09
The Nordicnórdico CochraneCochrane GroupGrupo were tryingmolesto to get a holdsostener of the datadatos on that
310
714000
2000
El Nordic Cochrane Group intentó acceder a esa información
12:11
to bringtraer it all togetherjuntos.
311
716000
2000
para poder consolidarla.
12:13
The CochraneCochrane GroupsGrupos are an internationalinternacional nonprofitsin ánimo de lucro collaborationcolaboración
312
718000
3000
Los Cochrane Groups son colaboradores internacionales sin fines de lucro
12:16
that produceProduce systematicsistemático reviewsopiniones of all of the datadatos that has ever been shownmostrado.
313
721000
3000
que producen críticas sistemáticas de toda la información que se ha demostrado.
12:19
And they need to have accessacceso to all of the trialjuicio datadatos.
314
724000
3000
Y necesitan tener acceso a toda la información del ensayo.
12:22
But the companiescompañías withheldretenido that datadatos from them,
315
727000
3000
Pero las compañías les ocultan esta información,
12:25
and so did the Europeaneuropeo MedicinesMedicinas AgencyAgencia
316
730000
2000
tal como lo hizo la Agencia Europea de Medicamentos
12:27
for threeTres yearsaños.
317
732000
2000
durante 3 años.
12:29
This is a problemproblema that is currentlyactualmente lackingcarente a solutionsolución.
318
734000
3000
Este es un problema que actualmente no tiene solución.
12:32
And to showespectáculo how biggrande it goesva, this is a drugdroga calledllamado TamifluTamiflu,
319
737000
3000
Para mostrarles la magnitud, esta es una droga llamada Tamiflu,
12:35
whichcual governmentsgobiernos around the worldmundo
320
740000
2000
en la que los gobiernos del mundo
12:37
have spentgastado billionsmiles de millones and billionsmiles de millones of dollarsdólares on.
321
742000
2000
han gastado miles de millones de dólares.
12:39
And they spendgastar that moneydinero on the promisepromesa
322
744000
2000
Y han gastado este dinero con la promesa
12:41
that this is a drugdroga whichcual will reducereducir the ratetarifa
323
746000
2000
de que ésta es la droga que va a disminuir la tasa
12:43
of complicationscomplicaciones with flugripe.
324
748000
2000
de complicaciones de la gripe.
12:45
We alreadyya have the datadatos
325
750000
2000
Ya tenemos información
12:47
showingdemostración that it reducesreduce the durationduración of your flugripe by a fewpocos hourshoras.
326
752000
2000
que reduce la duración de una gripe en tan solo unas pocas horas.
12:49
But I don't really carecuidado about that. GovernmentsGobiernos don't carecuidado about that.
327
754000
2000
Pero no me importa. A los gobiernos no les importa.
12:51
I'm very sorry if you have the flugripe, I know it's horriblehorrible,
328
756000
3000
Lamento muchísimo si tienen gripe, sé que es horrible,
12:54
but we're not going to spendgastar billionsmiles de millones of dollarsdólares
329
759000
2000
pero no vamos a gastar miles de millones de dólares
12:56
tryingmolesto to reducereducir the durationduración of your flugripe symptomssíntomas
330
761000
2000
tratando de reducir la duración de sus síntomas gripales
12:58
by halfmitad a day.
331
763000
2000
en medio día.
13:00
We prescribeprescribir these drugsdrogas, we stockpilereservas them for emergenciesemergencias
332
765000
2000
Recetamos estas drogas, las almacenamos para emergencias
13:02
on the understandingcomprensión that they will reducereducir the numbernúmero of complicationscomplicaciones,
333
767000
2000
creyendo que reducirá la cantidad de complicaciones,
13:04
whichcual meansmedio pneumonianeumonía and whichcual meansmedio deathmuerte.
334
769000
3000
es decir, de neumonía, de muertes.
13:07
The infectiousinfeccioso diseasesenfermedades CochraneCochrane GroupGrupo, whichcual are basedbasado in ItalyItalia,
335
772000
3000
El Cochrane Group de enfermedades infecciosas, con sede en Italia,
13:10
has been tryingmolesto to get
336
775000
2000
ha intentado obtener
13:12
the fullcompleto datadatos in a usableusable formformar out of the drugdroga companiescompañías
337
777000
3000
la información completa y usable de las farmacéuticas
13:15
so that they can make a fullcompleto decisiondecisión
338
780000
3000
para poder tomar una decisión concluyente
13:18
about whethersi this drugdroga is effectiveeficaz or not,
339
783000
2000
sobre si esta droga es efectiva o no
13:20
and they'veellos tienen not been ablepoder to get that informationinformación.
340
785000
3000
y no han podido acceder a esta información.
13:23
This is undoubtedlyindudablemente
341
788000
2000
Este es, sin dudas,
13:25
the singlesoltero biggestmás grande ethicalético problemproblema
342
790000
3000
el problema ético más grande
13:28
facingfrente a medicinemedicina todayhoy.
343
793000
2000
que enfrenta la medicina actualmente.
13:30
We cannotno poder make decisionsdecisiones
344
795000
3000
No podemos tomar decisiones
13:33
in the absenceausencia of all of the informationinformación.
345
798000
4000
en ausencia de toda la información.
13:37
So it's a little bitpoco difficultdifícil from there
346
802000
3000
Entonces se hace un poco difícil desde allí
13:40
to spingirar in some kindtipo of positivepositivo conclusionconclusión.
347
805000
4000
llegar a alguna conclusión positiva.
13:44
But I would say this:
348
809000
4000
Pero sí les diría:
13:48
I think that sunlightluz de sol
349
813000
3000
creo que la luz solar
13:51
is the bestmejor disinfectantdesinfectante.
350
816000
2000
es el mejor desinfectante.
13:53
All of these things are happeningsucediendo in plainllanura sightvisión,
351
818000
3000
Todas estas cosas están pasando a simple vista,
13:56
and they're all protectedprotegido
352
821000
2000
y están todas protegidas
13:58
by a forcefuerza fieldcampo of tediousnesstedio.
353
823000
3000
por un campo de fuerza de monotonía.
14:01
And I think, with all of the problemsproblemas in scienceciencia,
354
826000
2000
Y creo que, con todos los problemas en ciencias,
14:03
one of the bestmejor things that we can do
355
828000
2000
una de las mejores cosas que se pueden hacer
14:05
is to liftascensor up the lidtapa,
356
830000
2000
es levantar la tapa,
14:07
fingerdedo around in the mechanicsmecánica and peermirar in.
357
832000
2000
meter la cuchara en los mecanismos y curiosear.
14:09
Thank you very much.
358
834000
2000
Muchas gracias.
14:11
(ApplauseAplausos)
359
836000
3000
(Aplausos)
Translated by Mariela Rodio
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com