26 Junio 2019.
Foto: Pixabay.
Maria Isabel Rueda en su columna del domingo cita un estudio hecho en Colombia donde al parecer se hace un resumen de la evidencia sobre glifosato. Con respecto al estudio, sólo se cita la universidad que lo produce pero no se describe nada más, muchos menos se hace disponible.
Tomado de: La Silla Vacia.
Por tanto, no me voy a referir ni a ese trabajo, porque no lo conozco, ni a la columna de opinión de Maria Isabel Rueda, porque es sólo eso, pura opinión, y no tiene nada de ciencia. Sin embargo, sí me quiero referir a un artículo que ella interpreta y que al parecer es citado en el estudio nacional descrito.
Este artículo es, según la columnista, “el más extenso y cuidadoso estudio epidemiológico realizado por el Instituto Nacional de Salud (NHI) de EE. UU., publicado en la ‘Revista del Instituto Nacional del Cáncer’ (NCI) en el 2018”.
El artículo (Andreotti y otros autores) que ella menciona lo puede acceder cualquiera. Es gratis. Con leer el resumen de 300 palabras es suficiente para ver que los resultados que menciona son diferentes a los que los mismos autores citan.
No voy a criticar dicho estudio porque como investigador sé lo difícil que es hacer este trabajo y creo que este estudio es bueno considerando las limitaciones naturales de los datos. El problema no es el estudio. Es la extrapolación de los resultados del mismo al caso colombiano.
La realidad es que las debilidades de este estudio (reconocidas por los mismos autores) impiden llegar a las conclusiones a las que llega Maria Isabel Rueda. Por tanto, las inferencias que hace la columnista para el caso colombiano son erróneas ¿Por qué?
1. Población estudiada: el estudio se hace en personas con exposición ocupacional. De hecho son personas con licencia para usar glifosato.
Esto implica que el estudio se hace en personas que tienen control sobre la exposición a glifosato. Los sujetos del estudio usan el glifosato en el trabajo con guantes, máscaras, trajes y deben hacer un curso. Este no es el caso de Colombia donde el glifosato es asperjado sobre las casas, las personas y las fuentes de agua.
2. Diseño: dos de cada tres personas con licencia para usar glifosato respondieron una encuesta telefónica donde les preguntan, cinco años después, cuánto glifosato usaban por día. ¿Ustedes recuerdan cuantos días a la semana consumían verduras hace cinco años? Nada fáci.
Este un problema típico de la investigación con glifosato. Es muy difícil registrar la exposición al mismo porque los efectos en la salud ocurren años después y la exposición se ve sujeta a los vaivenes de la memoria.
3. Resultados: efectivamente el estudio no encontró una relación entre todos los canceres y glifosato PERO sí encontró que aquellos que tuvieron más exposición a glifosato tienen un riesgo 2.3 veces mayor de adquirir un tipo específico de cáncer, leucemia mieloide aguda. De hecho, la mitad de la discusión del estudio describe este hallazgo, y los autores dicen ser los primeros en describirlo.
Es usual no encontrar una relación con todos los cánceres porque no todas las exposiciones causan todos los cánceres. Por ejemplo, el virus del papiloma causa el cáncer de cuello uterino, pero no el de estómago. En particular, el glifosato se asocia a los cánceres de la sangre y del sistema linfático (el sistema que transporta la linfa), entre los cuales se encuentra la leucemia mieloide aguda.
4. Discusión: ¿Qué quiere decir todo esto? Que estos investigadores encuentran sólo una relación directa y fuerte entre la exposición ocupacional controlada al glifosato y la leucemia mieloide aguda, un tipo de cáncer de la sangre.
Esta relación es estadísticamente significativa al umbral de p menor a 0,1 (ver nota técnica abajo). En ese sentido, los investigadores piden realizar ejercicios de replicación para confirmar o no sus hallazgos. Además, los investigadores no encuentran una relación importante con otros cánceres.
5. Implicaciones de política: ¿Qué pasa con la exposición no ocupacional y no controlada, como ocurre con la aspersión de cultivos ilícitos en Colombia? Mínimo, lo mismo. Pero probablemente es peor porque la dosis de la exposición es mayor. ¿Cuánto peor? Aún no sabemos. No tenemos evidencia. Pero es suficiente para no querer asperjarla sobre otros seres humanos.
El mayor reto para un tomador de decisiones es hacer su labor bajo incertidumbre. Es una constante “apuesta” con las vidas y el bienestar de otros considerando la evidencia existente. La evidencia existente en este tema NO es conclusiva. La pregunta importante es si dada la incertidumbre y la posibilidad real de que el glifosato esté relacionado a algunos cánceres, el gobierno va a decidir asperjarlo y poner enriesgo a quienes se exponen a la aspersión.
Los valores de un buen tomador de decisiones se reflejan precisamente en circunstancias de incertidumbre con respecto a la evidencia. Este el momento de mostrar que este es el gobierno de las regiones y que la salud de sus habitantes es prioritaria.
6. ¿Qué dice la evidencia acumulada? Hay estudios que dicen que el glifosato puede causar cáncer, otros estudios dicen que no. Por la complejidad de la salud y la enfermedad, los investigadores nos apoyamos en el cuerpo de la evidencia. Es decir, sobre toda la evidencia acumulada, no sólo en un estudio.
La evidencia acumulada en salud es el reflejo de la realidad y la que debe informar la política pública. Por esta razón, los epidemiólogos hacen metanálisis, es decir, un estudio de estudios.
Los metanálisis son una ventana a la evidencia acumulada en un campo específico. En el caso del glifosato, estudios de estudios existen. El más reciente sugiere una relación entre glifosato y un tipo específico de cáncer, el linfoma no Hodgkin. Ahí les dejo ese estudio, revisado por pares y publicado en una revista de cuartil 1 ó A1 de Colciencias (es decir, es una revista de alta calidad).
De nuevo, este hilo no pretende criticar el estudio colombiano que aún no conocemos, ni la columna de Maria Isabel Rueda. Es un llamado a que los periodistas aprendan a interpretar mejor la evidencia científica que se les presenta porque en este caso, la lectura de la evidencia se quedó corta.
Algo similar ocurrió hace unos días con una columna de Claudia Palacios. Las columnas de opinión, se presume que son de opinión informada. Cuando se presentan datos, los lectores esperan que estos sean correctos y que las opiniones estén bien sustentadas. En este caso, la forma como los datos son presentados refleja una lectura limitada de la evidencia. Tal lectura limitada puede llevar a decisiones erróneas que cuestan vidas.
Con respecto al estudio nacional descrito en la columna:
Afortunadamente, los argumentos de autoridad se han ido perdiendo en la ciencia. Grandes investigadores de universidades muy reconocidas en revistas de muy alto impacto han cometido errores proporcionalmente grandes.
Los investigadores, como cualquier ser humano, podemos cometer errores. Por eso, sometemos nuestro trabajo a la revisión de pares que lo evalúan críticamente (a veces demasiado), pero en general siempre terminan mejorando el trabajo de uno.
Por esta razón, sugiero respetuosamente a los investigadores de este trabajo compartirlo o al menos presentarlo a la comunidad científica nacional mientras espera publicación y someterlo a dicha revisión de pares.
Este trabajo debe ser parte del cuerpo de la evidencia que es tenida en cuenta para resolver la brecha entre la evidencia y la política pública.
Muchos investigadores mantienen sus estudios bajo embargo mientras son revisados por pares científicos, pero este estudio claramente ya se hizo disponible y ya en este punto debería ser parte del dominio público.
Nota técnica importante: El resultado del artículo no es estadísticamente significativo al estándar usual (p<0,05). Esto quiere decir que es posible que este resultado sea debido a que el glifosato está relacionado al cáncer, o al azar. Sin embargo, los autores hacen un esfuerzo por llevar a cabo diferentes pruebas (análisis de sensibilidad) para probar si el efecto es debido al azar o no y los cambios se mantienen cuando realizan esas pruebas. Anteriormente, si un estudio tenía un valor de p mayor a 0,05, se consideraba un resultado negativo (el valor de p de este estudio es 0,07). Hoy en día, ese parámetro se está replanteando por múltiples razones. Sin embargo, en este estudio hay una razón adicional. El número de casos es muy pequeño. Cuando las muestras son pequeñas, incluso cuando hay asociaciones reales y fuertes, las mismas pueden no aparecer como “estadísticamente significativas”.