Entries Tagged 'Régimen científico' ↓

Las Corporaciones Farmacéuticas gobiernan las Industrias Sanitarias del mundo

Por el Dr. Gary G. Kohls, 19 de septiembre de 2018

Global Research

Tengo un libro visiblemente subrayado en mi biblioteca que se escribió en 1995, por David C. Korten. Se titula «Cuando las corporaciones gobiernan el mundo». Alrededor de la fecha en la que se publicó el libro, yo era médico de familia de un pueblo pequeño, y todavía trataba de seguir con ahínco el Juramento Hipocrático, que realicé en 1968. También seguía tratando de respetar el derecho inalienable de mi paciente a estar completamente informado sobre los riesgos y beneficios de cualquier medicamento que estuviera considerando prescribir antes de que él o ella diera su consentimiento para la prescripción. Suponía mucho tiempo seguir esos principios éticos.

Korten escribió posteriormente otro libro1999, que tituló «El Mundo Post-Corporativo». He aquí un extracto de la página 7 de la secuela que resume muy bien sobre lo que trataba de advertir a sus lectores:

«Nuestra implacable búsqueda del crecimiento económico está acelerando la desintegración de los sistemas de soporte de vida del planeta, intensificando la competencia por los recursos, ampliando la brecha entre ricos y pobres, y socavando los valores y las relaciones de la familia y la comunidad. La creciente concentración de poder en las corporaciones globales y las instituciones financieras está despojando a los gobiernos -democráticos y de otro tipo- de su capacidad para establecer prioridades económicas, sociales y ambientales en un interés común más amplio.

Impulsadas por una firme apuesta por la obtención de beneficios cada vez mayores en provecho de sus inversores, las corporaciones globales y las instituciones financieras han convertido su poder económico en poder político. Ahora dominan los procesos de decisión de los gobiernos y están reescribiendo las reglas del comercio mundial a través de los acuerdos internacionales de comercio e inversión para permitirse ampliar sus beneficios sin tener en cuenta las consecuencias sociales y ambientales que acarrea para la sociedad en general. Seguir con el negocio como de costumbre conducirá casi con toda seguridad al colapso económico, social y ambiental.

En gran medida, el problema se origina en los Estados Unidos. Sus representantes son los principales mercaderes de las falsas promesas del consumismo y los principales defensores de la desregulación del mercado, el libre comercio y las políticas de privatización que están avanzando en la consolidación global del poder corporativo y la correspondiente corrupción de las instituciones democráticas.

Resolver la crisis depende de las sociedades civiles, movilizándose para reclamar el poder que las corporaciones y los mercados financieros globales han usurpado. Nuestra mayor esperanza para el futuro radica en las economías de propiedad y gestión local que dependen predominantemente de los recursos locales para satisfacer las necesidades de subsistencia de sus miembros de manera que se mantenga un equilibrio con la tierra. Este cambio en las estructuras y prioridades institucionales puede abrir el camino para eliminar la privación y la desigualdad extrema de la vida humana. Instituir una verdadera democracia ciudadana y liberar el potencial no realizado para el crecimiento individual y colectivo y la creatividad».

En 2005, Wade Rowland escribió un libro titulado «Avaricia, Inc. por qué las corporaciones gobiernan nuestro mundo». Entre otros libros de temática similar en los estantes de mi biblioteca que advierten sobre los males del capitalismo global se encuentran «Wall Street and the Rise of Hitler» (1976) de Antony Sutton y de Willian Greiden, “Quien se lo dirá al pueblo: La Traición de la Democracia Americana» (1992)”.

Me entristece admitir que llegué tarde a comprender que lo que estos autores estaban advirtiendo a sus lectores en sus libros es lo siguiente: los males del capitalismo global también se aplican a las industrias médica, psiquiátrica, pediátrica, familiar, farmacéutica, de vacunas, de dispositivos médicos, etc., cada una de las cuales una vez fue controlada por los médicos y por lo tanto se adhirió al juramento de «primero no hacer daño»: el Juramento Hipocrático que todos los médicos hacen cuando se gradúan de la facultad de medicina. Los tiempos han cambiado, y no para la mejora de nuestra profesión o de nuestros pacientes.

Tres décadas después de mi práctica de medicina (más o menos en la época en que Korten escribió su libro), sufrí la adquisicion hostil de mi pequeña clínica de medicina familiar rural, de propiedad y funcionamiento independiente, en Pine River, Minnesota. La adquisición fue organizada por una nueva entidad corporativa llamada Essentia Health, una sucursal de la cual estaba ubicada en Brainerd, MN, una comunidad más grande a 30 millas al sur de mi clínica donde se encontraba el hospital del área. Más tarde, Essentia se convertiría en un centro de poder médico corporativo con sede en Duluth, con decenas de centros con fines de lucro en Minnesota, Wisconsin, Dakota del Norte e incluso en Idaho.

En el momento de la adquisición, todavía me esforzaba por cumplir con el Juramento Hipocrático y el Principio de Consentimiento Informado, pero mi gerente de negocios siempre se quejaba de que pasaba «demasiado tiempo» con mis pacientes. (Y mi familia se quejaba comprensiblemente de que pasaba demasiado tiempo después de las horas en la clínica terminando de hacer los gráficos. Sin embargo, mis pacientes no se quejaron, y eso fue lo que me pareció importante. Decidí dejar esa práctica antes de que Essentia tomara el control de la clínica. No creo que hubiera tolerado trabajar para Essentia durante mucho tiempo).

«Essentia Health es un sistema de salud integrado que atiende a pacientes en Minnesota, Wisconsin, Dakota del Norte e Idaho.

Con sede en Duluth, Minnesota, Essentia Health combina las virtudes y el talento de 14.700 empleados, entre los que se incluyen más de 1.900 médicos y profesionales avanzados, que sirven a nuestros pacientes y comunidades cumpliendo una misión diferente en relación con la salud de las personas.

Essentia Health, que incluye muchas instalaciones católicas, se guía por los valores de Calidad, Hospitalidad, Respeto, Alegría, Justicia, Administración y Trabajo en Equipo. La organización cumple su misión al tener un enfoque centrado en el paciente en 15 hospitales, 74 clínicas, seis centros de atención a largo plazo, tres centros de vida asistida, tres centros de vida independiente, cinco servicios de ambulancia y un instituto de investigación».

No habían pasado muchos años desde mi graduación de la Facultad de Medicina de la Universidad de Minnesota cuando me sentí incómodo con la política de la Asociación Médica Americana e incluso con mi Academia de Medicina Familiar de Minnesota, la cual -a pesar de sus florecientes proclamaciones de ser organizaciones altamente éticas en las que el paciente se encontraba en primer lugar- más tarde comprendí que se trataba principalmente de grupos de trabajo de presión para lograr que cualquier tipo de legislación o de nueva tecnología fuera considerada como provechosa para la industria.

Pero me tomó tiempo darme cuenta de lo mucho que las grandes empresas farmacéuticas estaban controlando la profesión médica. Supongo que mi primera pista fue la prevalencia de los vendedores y vendedoras (a quienes llamábamos «visitadores médicos») de todas las compañías farmacéuticas o de dispositivos médicos imaginables que se dirigían a mí para que les recetara su medicamento o producto más reciente, protegido por patente y, por lo tanto, el más caro.

Los visitadores médicos siempre se las arreglaron para ser muy amables – como todos los vendedores de éxito – con todos los miembros del personal de la clínica. Los representantes siempre estaban bien vestidos, eran atractivos (especialmente las mujeres) y siempre venían con regalos y muestras de medicamentos gratis de sus productos – como un incentivo para que yo entregara sus muestras a algunos de mis pacientes, quienes luego se esperaría que regresaran para una visita de seguimiento al consultorio y una posible receta de por vida que el paciente esperaría que (para la compañía farmacéutica) fuera prescrita indefinidamente. Más tarde me di cuenta de que el visitador médico obtendría una parte de las ganancias mientras el paciente continuara tomando la medicación, lo que explicaba el entusiasmo de los visitadores. Los mejores visitadores médicos ganaban más dinero que la mayoría de los médicos a los que se dirigían y que seducían para recetar los medicamentos de su empresa. Por supuesto, los directores generales ganaban decenas de millones de dólares con las mismas ventas, y yo contribuía a sus planes.

El visitador médico también me dejaba a menudo artículos de revistas médicas de aspecto oficial que supuestamente proporcionaban «evidencias» de las maravillas del nuevo fármaco. Por supuesto, rara vez tuve tiempo de leer estos folletos reimpresos con detenimiento o escepticismo. Fue mucho más tarde que descubrí que muchos de estos artículos fueron escritos por escritores pagados por la Industria Farmacéutica y/o publicados en revistas opacas que a menudo eran ilegítimas o incluso inexistentes.

Podría contar cien historias similares sobre la astucia de las enormes multinacionales médicas/farmacéuticas/vacunas «Corporaciones que gobiernan el mundo de la salud» que explicarían por qué he perdido el orgullo que una vez tuve en mi honorable profesión y ahora estoy avergonzado por la gradual aquiescencia de mi profesión a las codiciosas corporaciones globales que cumplen con la definición de entidades sociopáticas. Siendo sociópatas, los portavoces de la Industria Farmacéutica no pueden evitar ser mentirosos en serie cuando tratan de vender a los médicos los llamados «beneficios» de sus inasequibles productos patentados y de sobreprescripción, que se anuncian tan intensamente en la televisión que los pacientes llegan exigiendo que se les prescriba el medicamento, la vacuna u otro producto más reciente que no ha sido sometido a pruebas, siempre y cuando no tengan que pagarlos de su bolsillo.

Las campañas de propaganda de las grandes farmacéuticas son mucho más potentes hoy que en los días previos a mi jubilación, hace una década. Por lo menos por aquel entonces no había medicamentos (orales o inyectables) que costaran decenas de miles de dólares al año. ¡Ahora hay docenas y docenas de medicamentos que pueden costar entre 60.000 y 120.000 dólares al año! Incluso los pacientes ricos se negarían a pagar de su bolsillo por tales medicamentos, por lo que las compañías de seguros se ven obligadas a aumentar drásticamente las tarifas de las primas. Y los sociópatas de la Industria Farmacéutica no tienen sentimientos de culpa. Es la forma en que se hacen los negocios.

Lo que más me duele es ser testigo de la enorme influencia que tienen las campañas de propaganda masiva tanto sobre los prescriptores de los medicamentos y vacunas como sobre los pacientes, a pesar de la enorme cantidad de información científica válida que nunca se anuncia o incluso se escribe sobre ella en los medios de comunicación tradicionales, que son adictos a las enormes sumas de dinero de las grandes farmacéuticas e Industria de las Vacunas.

El inmenso poder financiero que las corporaciones farmacéuticas y de vacunas sin alma han tenido ha sido abrumador, gracias a los enormes presupuestos de publicidad y a la realidad de los miles de periodistas médicos no científicos que escriben sobre lo que la corporación les da de comer.

Dar poca importancia al principio del consentimiento informado es legal hoy en día, ya que existe otro principio llamado «Estándar Comunitario de Atención» que es un principio legal que no tiene nada que ver con la ética médica. No recuerdo que me enseñaran sobre eso cuando fui a la escuela de medicina. Abajo hay una definición de «estándar de cuidado» que encontré en Internet:

«En términos legales, (el estándar de atención es) el nivel al que el proveedor médico promedio y prudente de una comunidad determinada ejercería. Es la forma en que los médicos calificados de manera similar habrían administrado la atención del paciente en las mismas circunstancias o en circunstancias similares. El demandante por negligencia médica debe establecer el estándar de atención adecuado y demostrar que el estándar de atención ha sido vulnerado».

En otras palabras, el nivel de atención en una comunidad podría considerarse mala praxis en otra comunidad, dependiendo de lo que se considere normal o promedio. Así que un paciente víctima de mala praxis en una comunidad no podía demandar por mala praxis si el médico «culpable» estaba practicando de una manera que se consideraba normal o promedio en esa comunidad.

Los principios capitalistas corruptos – incluyendo la necesidad de que el médico individual sea altamente «eficiente» y «rentable» y «rápido» – han ido asumiendo gradualmente la una vez honorable práctica de la medicina. Cumplir con el principio del Consentimiento Plenamente Informado lleva demasiado tiempo cuando hay docenas de efectos adversos potenciales de cada medicamento o vacuna que deben ser explicados en detalle al paciente. Esos efectos adversos incluyen reacciones inmediatas; reacciones retardadas (que a menudo no son reconocidas[e incluso negadas ilógicamente y diabólicamente] por el médico); incapacidad permanente; e incluso la muerte.

A ningún médico empleado por una gran corporación de salud se le permite el valioso tiempo para explicarle al paciente acerca de los muchos eventos adversos potenciales, por lo que a los médicos y enfermeras se les ha dicho por parte de sus gobernantes corporativos que sólo mencionen un puñado de los problemas. Dar poca importancia a informar plenamente a los pacientes sobre los efectos secundarios y luego obtener el consentimiento informado (firmado o no) del paciente ha evolucionado hasta convertirse en lo que es un nuevo estándar de atención en la mayoría de las comunidades.

Esencialmente, todas las grandes corporaciones de salud, farmacéuticas y de vacunas son administradas por personas que no son médicos y que tienen títulos de Maestría en Administración de Empresas (MBA, por sus siglas en inglés).

A continuación hay una serie de citas que se refieren a los problemas éticos e incluso a las actividades delictivas de las corporaciones relacionadas con la medicina que han tomado el control de lo que antes eran esfuerzos éticos.

Que el prescriptor y los pacientes tengan cuidado.

«La corporación es un verdadero monstruo de Frankenstein – una persona artificial enloquecida, responsable sólo de su propio ser sin alma….representando al capitalismo en su estado más puro, completamente indiferente a cualquier cosa que no sea ganancia y poder.» – William Dugger, autor de Corporate Hegemony.

«La profesión médica está siendo absorbida por la industria farmacéutica (y de vacunas), no sólo en términos de la práctica de la medicina, sino también en términos de enseñanza e investigación. Las instituciones académicas de este país se están permitiendo ser los agentes pagados de la industria farmacéutica. Creo que es vergonzoso». – Arnold Seymour Relman, MD (1923-2014), profesor de medicina de Harvard y ex editor jefe del New England Journal of Medicine

«El caso contra la ciencia (corporativa) es sencillo: gran parte de la literatura científica (y médica), quizás la mitad, puede ser simplemente falsa. Basada en estudios con pequeños tamaños de muestra, efectos minúsculos, análisis exploratorios no válidos y flagrantes conflictos de intereses, junto con una obsesión por seguir tendencias de moda de dudosa importancia, la ciencia ha dado un giro hacia la oscuridad». Richard Horton, MD, redactor jefe de la prestigiosa revista médica británica The Lancet

«La ‘ciencia’ controlada por la industria no es realmente ciencia, sino una cortina de humo para allanar el camino a productos que pueden ser dañinos, pero ¿qué les importa mientras se beneficien? Hay muchos grandes científicos, pero también hay algunos que están dispuestos a ser contratados para `probar’ que algo no causa cáncer, o que algo es `seguro’. No puedes confiar en la EPA, la FDA o la ciencia que depende de la Industria». – Blogger

«La única vez que la palabra «cura» ya no se usa es por parte de organizaciones de investigación corporativas (y grupos de defensa de pacientes) cuando solicitan fondos de la gente durante sus campañas anuales de beneficencia o sus «caminatas por la curación». Claramente todos los incentivos financieros son para montar una interminable e infructuosa búsqueda de la cura sin llegar a encontrarla». – cita de www.healingmatters.com

«Las transcripciones de las reuniones del Comité Conjunto de Vacunación e Inmunización (JCVI, por sus siglas en inglés) también muestran que algunos de los miembros del Comité tenían amplios vínculos con las compañías farmacéuticas y que la JCVI cooperaba frecuentemente con los fabricantes de vacunas en las estrategias destinadas a impulsar la aceptación de la vacuna. Algunas de las reuniones en las que se discutieron estos temas controvertidos no tenían la intención de estar disponibles al público, ya que las transcripciones sólo se publicaron más tarde, a través de la Ley de Libertad de Información (FOIA, por sus siglas en inglés). Estas reuniones en particular se señalan en las transcripciones como » confidenciales comerciales » y revelan una clara y preocupante falta de transparencia, ya que parte de la información fue eliminada del texto (es decir, los nombres de los participantes) antes de la publicación de la transcripción en la sección FOI del sitio web de la JCVI». – Lucija Tomljenovic, PhD

«Simplemente, ya no es posible creer en gran parte de la investigación clínica que se publica, o confiar en el juicio de los médicos de confianza o en las pautas médicas autorizadas. No me complace esta conclusión, a la que llegué lenta y reticentemente durante mis dos décadas como editor de la New England Journal of Medicine (NEJM)». – Dra. Marcia Angell, ex editora en jefe del NEJM

«Los llamados ‘vacunólogos’ están tan cegados por su obsesión por obligar a vacunar a la sociedad que ni siquiera consideraron que podría haber factores que pudieran afectar en gran medida a la salud humana… a los ‘vacunólogos’ les gusta pensar en términos concretos, es decir, tienen un pensamiento muy estrecho y llevan anteojeras que les impiden ver los numerosos problemas que se producen con un gran número de vacunaciones en bebés y niños. Su objetivo en la vida es vacunar a tantas personas como sea posible con un número cada vez mayor de vacunas». – Russell Blaylock, MD

«Durante dos años, he trabajado con un equipo de médicos e investigadores científicos respetados para reunir todos los estudios publicados sobre el timerosal, el conservante de vacunas a base de mercurio que aún está presente en concentraciones peligrosas en las vacunas contra la gripe de los Estados Unidos y en las vacunas pediátricas en todo el mundo. Hemos reunido y analizado cerca de quinientos estudios epidemiológicos publicados, farmacológicos, toxicológicos, clínicos, animales y humanos en publicaciones líderes. Estos estudios involucran abrumadoramente al timerosal en una serie de lesiones neurológicas, incluyendo TDAH, TDAH, retraso del habla, retraso del lenguaje, tics, trastorno de miseria y autismo».Robert F. Kennedy, JR

«La FDA está ahí para servir a la industria farmacéutica. NO está ahí para servir al público». Dr. David Graham, alto funcionario de la Oficina de Seguridad de Medicamentos de la FDA (2005)

«No se va a resolver el problema de las enfermedades contagiosas de los niños inmunodeprimidos que crecen en condiciones espantosas sometiéndolos a un aluvión de vacunas….lo primero que hay que hacer -antes de vacunarlos en exceso- es proporcionarles condiciones de vida higiénicamente controladas, agua dulce, saneamiento, buena nutrición, etc.». – John D. Stone.

«Si hemos sido embaucados el tiempo suficiente, tendemos a rechazar cualquier evidencia del embaucamiento. Ya no estamos interesados en averiguar la verdad. El embaucador nos ha cautivado. Es demasiado doloroso reconocer, incluso para nosotros mismos, que hemos sido » secuestrados. Una vez que le das a un charlatán poder sobre ti, casi nunca lo recuperas». Carl Sagan, autor de «The Demon-Haunted World: La ciencia como una vela en la oscuridad»

«El mercurio a un mes de edad no es lo mismo que el mercurio a los tres meses, a los 12 meses, el mercurio prenatal, más tarde el mercurio. Hay toda una gama de resultados plausibles del mercurio». Cuando se le preguntó sobre el riesgo de toxicidad de los adyuvantes de aluminio, Verstraeten declaró: «los resultados fueron casi idénticos a los del etilmercurio.» Dr. Tom Verstraeten, epidemiólogo principal de los CDC

» Es preocupante que el efecto de las vacunas rutinarias sobre la mortalidad por todas las causas no se haya probado en ensayos aleatorios. Toda la evidencia actualmente disponible sugiere que la vacuna DTP puede matar a más niños (por otras causas) de los que salva de la difteria, el tétanos o la tos ferina. Aunque una vacuna puede proteger a los niños contra la enfermedad en cuestión, al mismo tiempo puede aumentar la susceptibilidad a infecciones no relacionadas». – Dr. Peter Aaby

«En el campo de la toxicología química se reconoce universalmente que las combinaciones de toxinas pueden traer incrementos exponenciales de toxicidad; es decir, una combinación de dos químicos puede traer un incremento de 10 veces la toxicidad, tres químicos 100 veces mayor. Este mismo principio se aplica casi con toda seguridad a los efectos inmunosupresores de las vacunas virales cuando se administran en combinación, como en el caso de la vacuna triple viral, entre las que se sabe que la vacuna contra el sarampión es excepcionalmente inmunodepresora». – Harold Buttram, MD

«Antes de la eliminación del mercurio (antes de 2000), los bebés recibían 3.925 microgramos (mcg) de aluminio en su primer año y medio de vida. Después de que las vacunas neumocócica y contra la hepatitis A se añadieron al programa de vacunación, los bebés comenzaron a recibir 4.925 mcg de aluminio durante el mismo período de edad, un aumento del 25%. En 2011, los CDC recomendaron que las mujeres embarazadas reciban la vacuna contra la tos ferina (Tdap), que también contiene aluminio. Los estudios demuestran que el aluminio atraviesa la placenta y se acumula en el tejido fetal. Por lo tanto, millones de bebés en el útero, bebés y niños pequeños fueron inyectados con, y continúan recibiendo, dosis anormalmente altas de sustancias neurotóxicas – mercurio y aluminio – mucho después de que padres desprevenidos fueran llevados a creer que las vacunas fueron purificadas y se hicieran seguras». – Neil Z. Miller

«Quien controla el pasado controla el futuro; quien controla el presente controla el pasado.»George Orwell

El Dr. Kohls es un médico jubilado que ha practicado el cuidado holístico de la salud mental durante la última década de su carrera. En su práctica, a menudo se ocupó de las horribles consecuencias psicológicas de los veteranos (y civiles) que habían sufrido traumas psicológicos, neurológicos y/o espirituales durante incidentes de violencia (incluyendo entrenamiento básico y combate).

———————————

Corrupción en la Industria Médico-farmacéutica

PRIMERA PARTE:

POR LUIS DE MIGUEL ORTEGA

TRANSCRIPCIÓN: FISABEL BÁEZ

Estos datos son reales, existen, a poco que uno investigue se los va a encontrar. Lo primero vamos a ver un pequeño video editado por FARMAINDUSTRIA (texto del video):

¿POR QUÉ LA INDUSTRIA FARMACÉUTICA Y LOS PROFESIONALES SANITARIOS TRABAJAN CONJUNTAMENTE?¿QUÉ BENEFICIO TIENE PARA LOS PACIENTES Y LOS SISTEMAS DE SALUD?

El trabajo conjunto de la industria farmacéutica y los profesionales sanitarios, ha jugado un rol vital en la investigación y desarrollo de medicamentos que salvan vidas y su uso en la práctica clínica. Esta relación consolidada y altamente regulada, está basada en un objetivo común, la mejora de la calidad de vida de los pacientes a través de los avances y tratamientos y avance de los mismos.

Su impacto ha sido significativo. Tomemos el VIH, visto como una sentencia de muerte en los 80, es ahora percibido como una condición crónica con la que se convive. Desde los años 90 hemos visto las tasas de mortalidad causadas por el cáncer, reducirse en un 20 %

EN QUÉ TRABAJAN JUNTOS LOS PROFESIONALES Y LA INDUSTRIA

La industria farmacéutica trabaja estrechamente con la profesión médica en actividades muy diversas, dando forma al futuro de la investigación clínica, diseñando y ejecutando ensayos clínicos, compartiendo las mejores prácticas clínicas, trabajando en la concienciación de las diversas patologías, desde la prevención al diagnóstico y tratamientos, y proporcionando programas de apoyo a pacientes.

Los profesionales sanitarios realizan presentaciones para sus compañeros acerca de sus últimos avances médicos. Pueden participar en consejos de expertos donde especialistas se reúnen para aconsejar a los laboratorios en relación a temas concretos en investigación, desarrollo y uso de medicamentos.

Los profesionales sanitarios también pueden recibir apoyo para su participación en reuniones científicas, como es el pago de cuotas de inscripción, desplazamientos y alojamientos.

¿CÓMO SE BENEFICIAN LOS PACIENTES, LOS PROFESIONALES Y LA INDUSTRIA?

Compartir conocimientos se encuentra situado en el centro mismo de la relación entre la industria y la comunidad científica.

La profesión médica ofrece a la industria, una valiosa información en áreas de necesidad médica no cubierta, soluciones terapéuticas potenciales y el uso cotidiano de tratamiento en la clínica.

Esto, ayuda a la industria a diseñar el modo en que desarrolla y aporta nuevos medicamentos para la mejora de resultados en pacientes. A cambio, la industria les proporciona la oportunidad de diseñar el entorno terapéutico a través de programas de investigación clínica, el aprendizaje entre pares, la posibilidad de conocer los últimos avances en el cuidado de los pacientes, que pueden luego aplicar en su propia práctica diaria. Y lo más importante, los pacientes se benefician del desarrollo y uso de nuevos medicamentos, ya sea para la mejora de su calidad de vida o incluso para su curación.

La investigación, desarrollo, autorización y acceso a la mayoría de estos medicamentos están directamente vinculado al trabajo conjunto de la industria y las comunidades investigadora y médica.

¿CUÁNTO SE LES REMUNERA A LOS PROFESIONALES SANITARIOS?

Es del todo apropiado, que los profesionales sanitarios sean compensados de manera adecuada por el conocimiento y servicios que aportan a la industria farmacéutica. La cantidad que perciben los profesionales sanitarios depende del tipo de actividad, nivel de conocimiento y la cantidad de tiempo invertido. El apoyo a la participación en reuniones científicas está ampliamente regulado en los códigos de buenas prácticas de la industria. Garantizan que el transporte y alojamiento resulten apropiados, estando las dietas limitadas monetariamente en cada país.

REFORZANDO LAS COLABORACIONES FUTURAS

En junio del 2016 la Industria farmacéutica en Europa comenzará a publicar en Internet los pagos que realiza a profesionales sanitarios individuales, aportar una mayor transparencia a esta relación que ya se encuentra altamente regulada tiene como objetivo fortalecer las bases para colaboraciones futuras, garantizando que los pacientes en Europa continúen beneficiándose del trabajo conjunto de la industria y los profesionales sanitarios”.

TÉCNICAS DE CORRUPCIÓN MEDICO-FARMACÉUTICA

Investigación científica

Os voy a contar un poco las técnicas de corrupción médico farmacéutica desde el punto de vista del consumidor. Me considero soy consumidor, entre otras cosas soy presidente de una asociación de consumidores más o menos minoritaria, pero que pretendemos defender los intereses de los consumidores de los servicios y productos de salud, incluidos aquellos que consumen productos y servicios de la Sanidad Pública.

No hay que olvidar que el paciente no tiene otra naturaleza jurídica posible que la de consumidor, eso es algo extraño porque en España todavía no hemos asumido que el paciente es un consumidor, con todos los derechos que tienen los consumidores, incluido el derecho a recibir información veraz tanto de asociaciones como esta como de la industria farmacéutica, como de nuestros medios, y ese es el punto de vista.

¿Qué garantía tenemos de recibir información veraz de uso de medicamentos, sobre diagnósticos, sobre pronósticos?. Pues tenemos todo el derecho, pero el problema es que hay otras personas que estructuran una serie de mecanismos para que no nos llegue esa verdad, o por lo menos para limitar esa documentación, pues es información que todo cliente de todo servicio: sanitario, educativo, político, jurídico. .. tiene derecho a tener.

Vamos a ver un poco que técnicas fundamentales son las que emplea la industria, pública y privada, para ocultar o para manipular la información.

Todas estas figuras que os voy a contar que vienen en nombre inglés no es que yo me invente los términos ingleses, son técnica de corrupción que se conocen desde los años 60, no es algo que yo haya descubierto, que vaya a hacer una tesis, ni un doctorado,… son cosas que ocurren desde hace mucho tiempo.

Vamos a empezar por la primera parte, luego me imagino que con el correo os haya llegado bibliografía y no hace falta que os mande copia, si hace falta haremos una copia.

LA PRIMERA PARTE O TÉCNICA O CORRUPCIÓN SANITARIA

Por supuesto de todas estas técnicas sacamos con el que ha hecho video que dirá esto es un mito que no ha existido nunca, pero al final veremos un video si es necesario, donde ya en el 2012 hice un trabajo de investigación sobre la investigación clínica que se hacía antes en una fundación público – privada, dentro de un hospital, donde se ve que todo esto es real. Ejemplo: un hospital con 550 camas, relativamente pequeño, publica 137 trabajos de investigación al año. ¿Creéis que es posible dedicar todo ese tiempo, creéis que es posible escribir todos esos artículos, publicarlos,…en horario de trabajo, en un servicio público, con pacientes públicos? Hay incluso incluso servicios hospitalarios como el de oncología que es capaz de publicar 48 trabajos de investigación al año. ¿Hay personal suficiente con las listas de espera? Hay incluso trabajos publicados en inglés por gentes que tienen dificultad para pronunciar thank you, good morning,…. Y los publican en inglés. Entonces vamos a empezar, vamos a ir al asunto.

1.- DISEASE MONGERS (CREADORES DE ENFERMEDADES)

Disease Mongers, es el especialista en marketing dentro de la industria farmacéutica que se encarga en diseñar una enfermedad o una necesidad clínica o una necesidad de investigación. Venga por ejemplo que determinada condición de la edad, normal, biológica, ..es una enfermedad. O que determinado comportamiento de los niños, ya no es algo normal en los niños, como es la rebeldía, el dinamismo, la expresividad,… sino que es una enfermedad, o que en condiciones tan tristes pero tan frecuentes como la impotencia, que forma parte de la naturaleza humana, es una enfermedad.

También hacen otra cosa los Disease Mongers, al medicamento que clínicamente no tiene ninguna salida práctica le inventan una utilidad, ejemplo divertido , el Viagra, el Viagra fue un medicamento inventado para combatir la hipertensión arterial pero era tan malo, tan inseguro y tan peligroso que decidieron, ¡ bueno pues no lo usamos ¡, pero a alguien se le ocurrió oye que como efecto secundario produce unas erecciones bestiales. ¡ Pues ya está ¡ ¡ Ya le hemos buscado aplicación ¡. Ese es el trabajo del Disearse Mongers. No es un trabajo clínico, no es un trabajo de investigación como el video que se ha expuesto, es un trabajo de marketing, buscar necesidades y dar respuesta a esas necesidades, pero por supuesto a cambio de un precio, no es gratis.

2º.- GHOST WRITERS (ESCRITORES FANTASMA)

El Ghost Writer es aquel personaje de una empresa de servicios editoriales que se encarga de escribir los trabajos de investigación para que los firmen los médicos. Los médicos no tienen que hacer nada más que ir a tomar un café al congreso y allí le ponen el papelito para que lo firme con su nombre. El no ha hecho el trabajo, no ha investigado nada, el no hecho los cálculos, no ha hecho el resumen, el no ha hecho ni la traducción al inglés, se lo han

preparado, sólo se lo han puesto encima de la mesa, solo tiene que firmar y a cambio de esa firma se le paga todos los gastos de “investigación” que ha tenido. Aparte del café se le paga tres o cuatro mil euros. Esto es otra forma que se utiliza y que luego si hace falta lo podemos ver en el video.

¿Que necesitamos para que esto cuele, para que sea fiable, para que sea creíble?. Pues evidentemente no podemos presentar un ensayo de investigación clínica si no hay un diseño previo, no podemos arriesgarnos como farmacéutica a hacer un ensayo aleatorio y que los resultados contradigan lo que nosotros queremos vender, y para eso necesitamos a otro técnico que es el Trial Designers.

3º.- TRIAL DESIGNERS ( EL DISEÑADOR DE ENSAYOS)

Es aquel especialista en ensayos médicos que dice: cómo, cuándo y de que manera hay que hacer el ensayo clínico para que termine demostrando lo que queremos demostrar, y entonces nos encargamos como especialistas de sesgar la investigación, de anular el doble ciego, influir en los sesgos, hacer lavados de medicamentos previos al ensayo, introducción de medicamentos que no conocemos e incluso diseñar unas tablas de resultados que no comprometan los objetivos. Ese es el especialista, y a eso se dedica. Es necesario porque sino esos trabajos de investigación que luego el médico va a firmar no tienen seriedad. Evidentemente el médico no tiene tiempo para hacer un diseño metodológico de ese ensayo de ese ensayo, y necesita un especialista que diga: este es el ensayo que vamos hacer, esto es lo que vamos hacer y esto lo tiene que hacer el especialista y además tienen empresas especializadas en eso.

Unas de las cosas más curiosas que tienen las empresas farmacéuticas es disgregar la empresa, fragmentarla, hacer distintas empresas, de modo que la mayor parte de las empresas farmacéuticas en España, son sociedades limitadas. Podéis ver que Pfeizer es una sociedad limitada con lo grande que es, Lilly, una sociedad limitada, un capital tan limitados de 3.000 o 4.000 euros ¿ cómo puede ser?, una empresa tan grande, pues porque son varias empresas, una es la productora, otra la distribuidora, otra investigadora, otra la que hace el astroturfing… hay distintas empresas. Y esta es una de las empresas que suelen crear empresas de diseño de investigación clínica

Tenemos ahora la parte mas curiosa, el Astroturfers

4º.- ASTROTURFERS (SEMBRADORES DE CÉSPED)

Es una cosa curiosa porque la palabra astroturfing no es más que una marca de despegue artificial. Dirán que tiene que ver una empresa de despegue artificial con la producción medico farmacéutica. Es una técnica de corrupción, se trata de hacer ver que es natural algo que es completamente artificial y cocinado, no es una cosa que acabamos de descubrir aunque el video que hice hace tres años de un trabajo que hice hace cuatro pero es una técnica de corrupción pública que se conoce desde los años 60. Por ejemplo, uno de los primeros casos y más estudiados fue el de un vendedor de vasos de plástico de un pequeño pueblo de Estados Unidos que no vendía los vasos de plástico, entonces fabricó unas pequeñas octavillas, unos pequeños folios sin firmas, sin nombre, sin membrete pero simplemente denunciando que compartir vasos de cristal o metal aunque sean lavados, en las estaciones de trenes, los servicios públicos, era un problema de salud pública y era un riesgo para la población. Simplemente empezó a echar octavillas, hasta que empezaron a comprarle los vasos de plástico. Parecía que por detrás había una inquietud de la población

por la seguridad e higiene, pues no, simplemente detrás había alguien con un pequeño capital dispuesto a invertir para cambiar la conciencia de la sociedad, ese es el Astroturfing.

Ejemplo: de repente, una niña en Valladolid muere por meningitis. De repente aparecen asociaciones de padres, asociaciones de clínicos, sociedades científicas,.. en un año se consigue crear una alarma social que justifica la vacunación de meningitis de toda la población infantil.

Hepatitis, de repente aparecen asociaciones de las que luego ya no se vuelven hablar, de las que luego nunca más se conoce quienes son los miembros, que dicen lo importante que es el tratamiento de los enfermos de la hepatitis C, lo importante que es preveniR, etc, … hasta que es tan grande el movimiento social que el estado compra todos los medicamentos al precio que haga falta para tratar a todos los enfermos de hepatitis, esto es Astroturfing . Esto no solo se utiliza en medicina, se utiliza en todos los campos de la vida pública: política, medicina; para construir un aeropuerto; para construir un hospital; para construir una línea de metro: ¡Es necesario hacer un tranvía en Barcelona! ¡No podemos vivir en Barcelona sin tranvía….!.. Aparecen asociaciones de vecinos por el tranvía, aparecen las asociaciones ecologistas a favor del transporte público, aparecen asociaciones de otros medios de transportes, etc., hasta que parece que hay una realidad, un movimiento social que justifica el poner un tranvía, cueste lo que cueste. Este es el Astroturfing. Esto funciona, funciona en la sanidad continuamente. Para construir un hospital nuevo, para comprar medicamentos nuevos, para argumentar una enfermedad… Lo que se hace, en primer lugar, es que las empresas farmacéuticas generan ese alarmismo social para crear esa sensación de movimiento espontáneo natural de necesidad social. Vdes. pueden decir, esto es un mito, esto no ocurre, esto no es real, esto te lo estas inventando. Hace tres meses se llevaba a cabo un proyecto en España, era un proyecto de iniciativa social. El lema era, “ si quieres cambiar el mundo, si tú quieres tener un proyecto en internet que quiera cambiar la información que hay sobre las enfermedades, si quieres mejorar la información del público sobre las enfermedades, presenta nuestro proyecto, solo necesitas un dominio de internet, un proyecto que informas sobre algo, y ocho horas al día de disponibilidad, nosotros ponemos el dinero y lo que haga falta, tendrás un mentor que te dirá lo que tienes que ir haciendo para que el proyecto florezca”. Esto nada mas que es un proyecto Astroturfing. Compramos a 54 personas que tienen un dominio ocho horas al día para que comenten en todos los medios de comunicación, para que entren en todas las páginas de internet, para que entren en todas las páginas de disidencia sanitarias, para que se metan en todas esas páginas de: acupuntura, moxibustión y todas esas páginas que hay, para que te digan lo malo y lo anticientífico que es eso. Eso es una realidad y luego si queréis podemos debatir y contar casos reales. Ese es el Astroturfing, gente pagada para crear la sensación de que hay una gran, inmensa cantidad de personas preocupadas por un tema y se necesita una solución.

¿Que es lo que normalmente da la sensación de que esto está cocinado?. Hay dos signos de alarma.

Primero: el mensaje se repite viralmente y machaconamente casi incluso con las mismas frases, palabra por palabra. Suele ser un lenguaje violento y obsceno: pseudociencia, engañifas, magufos, … nunca hay argumentos, nunca hay datos,.. Ese es el primer signo de alarma.

Segundo signo de alarma: nunca proponen una solución sencilla de la vida diaria, nunca solución es higiene, precaución, información. La solución es un gran contrato público, una

masiva compra de medicamentos o el sometimiento de toda la población ante la corrupción masiva.

Esos son los dos signos fundamentales de que una noticia sobre: tráfico, sobre meningitis, sobre sanidad,… es Astroturfing.

5º.- DEAD MONGERS, DESENTERRADORES DE MUERTOS

Quizás la parte más desagradable, los desenterradores de muertos

Si yo mañana me levanto a las 8 de la mañana y me acerco a la cama de mi hijo, de mi hija y me lo encuentro muerto,… entre que llamo a la policía, se levanta el cadáver, lo llevan, les pido la autopsia, aceptan la autopsia, pido el informe, me dan el informe, denuncio en público que alguien lo ha amordazado y le ha inyectado algo y lo han matado por la noche pueden pasar 3, 6 meses o un año. Es curioso que a veces parece que tenemos el informe de autopsia de algunos niños fallecidos, e incluso antes de que hayan fallecido. Ese es el Dead Mongers, el fabricante de muertos. Sabe dónde va a haber una situación de crisis, sabe que esa crisis va a terminar en un fallecimiento y va preparando con tiempo toda la documentación para hacerla pública y para echarle el muerto encima a: la falta de tratamiento, al inadecuado tratamiento, a la falta de recursos públicos, tales medicamentos o a las prácticas parasanitarias: pseudociencias, y todas esas brujerías que soléis usar, ese es el Dead Mongers, existe. Voy a poner una situación personal que a mí como enfermero se me ha intentado echar encima un muerto. Eso es algo que ocurre y forma parte de la industria farmacéutica.

6º.- SOCIEDADES INSTRUMENTALES

Todo esto que os contaba el video es verdad, pero esa colaboración público-privada, químico-farmacéutica, médico-clínica, se tiene que sustanciar en alguna estructura. Están las fundaciones de investigación, las sociedades científicas, que no son más que técnicas instrumentales que utilizan las empresas farmacéuticas y los sistemas de salud pública, para mover o poner en puesta de valor, que son mordidas, que no sólo justifican los viajes, no sólo el alojamiento, a veces el viaje es que el médico tenga un coche nuevo y eso se justifica como gastos de viaje. A veces el alojamiento de los congresos se justifica con el pago del alquiler. A veces los gastos de investigación clínica se justifican como la compra del ordenador para el chico. Lo único que hace falta una es una sociedad instrumental y una factura y eso de que se hacen público los datos, sí, en teoría debería ser así, pero al final nos encontramos con que no, al final los datos que se publican son las pequeñísimas mordidas que pagan las farmacéuticas a los residentes. Los adjuntos, los jefes del servicio, normalmente por la cláusula de protección de la intimidad, dicen que lo que no quieren que se publique no se publica y lo que nos encontramos que publican las farmacéuticas son esas pequeñas mordidas que afectan a los residente, las pequeñas personas que trabajan en la sanidad. Esto es así, estas sociedades instrumentales son las que facilitan esa investigación clínica tan necesaria y tan falsa. No nos podemos creer que una sociedad científica, en un hospital pequeño, haga 137 trabajos de investigación, es imposible, materialmente imposible, pero estas sociedades son las lo hacen posible.

Y ahora nos queda el último punto, la parte más peligrosa, la más desagradable de esta corrupción medico-farmacéutica, es el secuestro médico

7º EL SECUESTRO MÉDICO

Es la fusión entre la sanidad, (y que debería ser un concepto que englobase al paciente como consumidor) con la justicia, y obligar a determinados tratamientos de manera involuntaria. Donde más se está dando esto es en los niños y en los ancianos. Son los dos grupos de población más sensibles y más delicados y donde se están abusando más los secuestros médicos. El niño parece que tiene un tumor, necesita que le traten, los padres no están de acuerdo, no lo han visto claro, quieren una segunda opinión… El interés superior del menor, justifica cualquier acción en beneficio del menor, incluido aquello que va en contra del menor y de los padres. La doctrina de las Naciones Unidas es unívoca, el interés superior del menor no se puede utilizar en contra del criterio del niño y de los padres. El niño es quien decide cuál es su interés superior y en caso de que el niño no pueda decidir, son los padres quienes deben decidir el interés superior del niño, nunca la administración, sin embargo no se está aplicando, cada vez se va a dar más, cada vez se está hablando más de vacunación masiva. En psiquiatría no somos capaces, por ahora, de despegarnos de dosis, de tratamientos y tratamientos e internamientos involuntarios a través de procedimientos judiciales que no tienen ningún encaje procesal. Me gustaría algún día tener la oportunidad de contaros como hoy en día todo tratamiento e internamiento involuntarios se están haciendo en aplicación de una orden gubernativa de tratamientos e internamientos involuntarios psiquiátricos del año 1932, porque hoy en día no tenemos ninguna legislación ni sustantiva ni procesal que permita un procedimiento de internamiento involuntario, esta es la situación en la que estamos.

Con esto termino con las técnica de corrupción …..

PASAMOS AL VIDEO DE CASOS CONCRETOS

DEBATE I (preguntas):

DEBATE II (video y preguntas):

—————————–

Un experimento podría confirmar que la gravedad es una fuerza cuántica

Por Natalie Wolchover, 9 de marzo de 2018

theatlantic.com

En 1935, cuando las teorías de la mecánica cuántica y de la teoría de la relatividad general de Einstein estaban en sus inicios, un físico soviético poco conocido llamado Matvei Bronstein, que apenas tenía 28 años, realizó el primer intento detallado del problema de reconciliar las dos teorías en una teoría cuántica de la gravedad. Esta “posible teoría del mundo como un todo”, como la llamó Bronstein, reemplazaría la descripción clásica de Einstein de la gravedad, que la presenta como curvas en el continuo espacio-tiempo, y la reescribiría en el mismo lenguaje cuántico que el resto de la física.

Matvey Bronstein

Bronstein ideó cómo describir la gravedad en términos de partículas cuánticas, que ahora se llaman gravitones, pero sólo cuando la fuerza de la gravedad es débil, es decir, siguiendo la teoría de la relatividad general, cuando el tejido espacio-tiempo está débilmente curvado aproximándose a una superficie plana. Cuando la gravedad es fuerte, “la situación es bastante diferente”, escribió. “Sin una profunda revisión de las teorías clásicas, parece casi imposible extender la teoría cuántica de la gravedad a este dominio”.

Sus palabras parecen proféticas: 83 años después, los físicos aún intentan comprender cómo se origina la curvatura del espacio-tiempo a escala macroscópica, desde una imagen más fundamental, presumiblemente cuántica, de la gravedad. Podría decirse que es la pregunta más acuciante en física. Quizás, aprovechando la oportunidad que se le ofreció, el astuto Bronstein podría haber ayudado a acelerar las cosas. Además de dedicarse al estudio de la gravedad cuántica, contribuyó a la astrofísica y la cosmología, la teoría de los semiconductores y la electrodinámica cuántica, y también escribió varios libros de ciencia para niños, antes de caer en la Gran Purga de Stalin y ser ejecutado en 1938, a los 31 años de edad.

La búsqueda de una teoría de la gravedad cuántica se ha visto obstaculizada por el hecho de que las propiedades cuánticas de la gravedad nunca parecen manifestarse en nuestras experiencias de la vida. Los físicos nunca han llegado a comprobar cómo falla la descripción de Einstein del continuo espacio-tiempo, o la aproximación cuántica de Bronstein cuando se presenta una débil curvatura.

El problema es la extrema debilidad de la gravedad. Mientras que las partículas cuánticas comunican las fuerzas fuertes, las débiles y las electromagnéticas, las cuales son tan intensas que unen fuertemente la materia en átomos y pueden estudiarse en experimentos de mesa, los gravitones son individualmente tan débiles que los laboratorios no tienen ninguna esperanza en detectarlos. Para detectar un gravitón se necesitaría un detector de partículas tan grande y masivo que colapsaría en un agujero negro. Esta debilidad es la razón por la cual se necesita una acumulación astronómica de masa para influir gravitacionalmente en otros cuerpos masivos, y por la que sólo vemos que la gravedad se manifiesta a gran escala.

No sólo es eso, sino que el universo parece gobernado por una especie de censura cósmica: regiones de extrema gravedad, donde el espacio-tiempo se curva tan bruscamente que las ecuaciones de Einstein no se comportan nada bien y la verdadera naturaleza cuántica de la gravedad y el espacio-tiempo deben ser desveladas- siempre se esconden detrás de los horizontes de los agujeros negros.

Incluso hace unos años había un consenso generalizado de que muy probablemente no haya manera de medir la cuantificación del campo gravitacional”, dice Igor Pikovski, físico de la Universidad de Harvard.

Ahora, un par de artículos publicados recientemente en Physical Review Letters han hecho cambiar la manera de ver las cosas. Los artículos sostienen que es posible describir la gravedad en términos cuánticos después de todo, aunque no se descubre nada nuevo al respecto. Los artículos, escritos por Sougato Bose de la University College London y nueve colaboradores, y por Chiara Maletto y Vlatko Vedral de la Universidad de Oxford, proponen un experimento de mesa, técnicamente desafiante, pero factible, que podría confirmar que la gravedad es una fuerza cuántica como el resto de fuerzas, aunque no se detecte el gravitón. Miles Blencowe, un físico cuántico de la Universidad de Datmouth que no participó en el trabajo, dijo que el experimento detectaría una señal segura de la gravedad cuántica invisible: la “sonrisa del gato de Cheshire”.

Un microdiamante que levita (punto verde) en el laboratorio de Gavin Morley en la Universidad de Warwick, frente a la lente utilizada para atrapar al diamante con luz (Gavin Morley)

El experimento que se propone determinará si dos objetos, el grupo de Bose planea utilizar un par de microdiamantes, pueden entrelazarse de manera mecánico-cuántica entres sí, a través de su mutua atracción gravitacional. El entrelazamiento es un fenómeno cuántico en el que las partículas se entrelazan de manera inseparable, compartiendo una única descripción física que caracteriza sus posibles estados combinados. (La coexistencia de los diferentes estados posibles, lo que se llama “superposición”, es el rasgo distintivo de los sistemas cuánticos). Por ejemplo, un par de partículas entrelazadas podría darse en una superposición en la que hay un 50% de probabilidades de que el giro de la partícula A apunte hacia arriba y la B hacia abajo, y un 50% de probabilidades de lo contrario. No se sabe de antemano qué resultado se puede obtener cuando se midan las direcciones de giro de las partículas, pero es seguro de que señalarán caminos opuestos.

Los autores argumentan que los dos objetos que proponen para su experimento puede entrelazarse entre sí de esta manera sólo si las fuerza que actúa entre ellos, en este caso, la gravedad, es una interacción cuántica, mediada por gravitones que pueden mantener superposiciones cuánticas.

Si puede hacer el experimento y conseguir el entrelazamiento, entonces de acuerdos con esos artículos, se debe concluir que la gravedad esta cuantizada”, explicó Blencowe.

Freeman Dyson

La gravedad cuántica es tan imperceptible que algunos investigadores se han preguntado si realmente hay tal cosa. El físico matemático Freeman Dyson, de 94 años, lleva argumentando desde 2001 que el universo podría sostener una especie de descripción «dualista», donde «el campo gravitacional descrito por la teoría de la relatividad general de Einstein es un campo puramente clásico sin ningún comportamiento cuántico”, como escribió ese año en The New York Review of Books, a pesar de que toda la materia dentro de este continuo espacio-tiempo está cuantizada en partículas que obedecen a reglas probabilísticas.

Dyson, quien contribuyó a desarrollar la electrodinámica cuántica (la teoría de las interacciones entre la materia y la luz) y es profesor emérito en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey, donde coincidió con Einstein, no está de acuerdo con el argumento de que la gravedad cuántica es necesaria para describir el interior inaccesible de los agujeros negros. Y se pregunta si la detección del hipotético gravitón podría ser imposible, incluso por principio. En ese caso, argumenta, la gravedad cuántica es metafísica, más que física.

No es el único escéptico. El renombrado físico británico Sir Roger Penrose y, de forma independiente, el investigador húngaro Lajos Diósi, han planteado la hipótesis de que el espacio-tiempo no puede mantener superposiciones. Argumentan que su naturaleza fluida, sólida y fundamentalmente clásica le impide curvarse de dos maneras diferentes a la vez, y que su rigidez es exactamente lo que causa el colapso de las superposiciones de sistemas cuánticos como los electrones y los fotones. Esta «decoherencia gravitacional», en su opinión, da lugar a la realidad clásica única, sólida como una roca, experimentada a escalas macroscópicas.

La capacidad de detectar la “sonrisa” de la gravedad cuántica parece refutar el argumento de Dyson. También acabaría con la teoría de la decoherencia cuántica, al mostrar que la gravedad y el espacio-tiempo mantienen superposiciones cuánticas.

Las propuestas de Bose y Marletto aparecieron simultáneamente, sobre todo por casualidad, aunque los expertos dicen que son un reflejo del espíritu del momento. Los laboratorios experimentales de física cuántica de todo el mundo están sometiendo objetos microscópicos cada vez más grandes a superposiciones cuánticas y racionalizando protocolos para probar si dos sistemas cuánticos están entrelazados. El experimento propuesto tendrá que combinar estos procedimientos a la vez que requerirá mejoras adicionales en el tamaño y la sensibilidad; podría tardar una década o más en poderse llevar a cabo. «Pero no hay obstáculos físicos«, dijo Pikovski, que también estudia cómo los experimentos de laboratorio podrían investigar los fenómenos gravitacionales. «Creo que es un reto, pero no creo que sea imposible”.

El plan se expone con mayor detalle en el documento de Bose y sus coautores, un elenco de 11 expertos de Ocean para completar las diferentes fases de la propuesta. En su laboratorio de la Universidad de Warwick, por ejemplo, un coautor, Gavin Morley, está trabajando en el primer paso, intentando poner un microdiamante en una superposición cuántica de dos lugares de trabajo diferentes. Para hacer esto, incrustará un átomo de nitrógeno en el microdiamante, junto a una cavidad en la estructura del diamante, y lo hará con un impulso de microondas. Un electrón que orbita el centro vacío de nitrógeno de un diamante absorbe la luz y no lo hace, y el sistema entra en una superposición cuántica de dos direcciones de giro -arriba y abajo- como una peonza que tiene alguna probabilidad de girar en el sentido de las manecillas del reloj y alguna posibilidad de girar en sentido contrario a las manecillas del reloj. El microdiamante, dotado de este giro superpuesto, está sometido a un campo magnético, que hace que los spin arriba se muevan a la izquierda mientras que los spin abajo se muevan a la derecha. El diamante en sí mismo se divide en una superposición de dos trayectorias.

En el experimento completo, los investigadores deben hacer todo esto con dos diamantes – uno azul y otro rojo, dicen – suspendidos uno al lado del otro dentro de un vacío ultrafrío. Cuando la trampilla que los sostiene está desconectada, los dos microdiamantes, cada uno en una superposición de dos posiciones, caen verticalmente en el vacío. A medida que caen, los diamantes sienten la gravedad del otro. ¿Pero cómo es de fuerte su atracción gravitacional?

Si la gravedad es una interacción cuántica, entonces la respuesta es: depende. Cada componente de la superposición del diamante azul experimentará una atracción gravitacional más fuerte o más débil hacia el diamante rojo, dependiendo de si éste se encuentra en la rama de su superposición que está más cercana o más lejana. Y la gravedad que siente cada componente de la superposición del diamante rojo depende igualmente de dónde esté el diamante azul.

En cada caso, los diferentes grados de atracción gravitacional afectan a los componentes evolutivos de las superposiciones de los diamantes. Los dos diamantes se convierten en interdependientes, lo que significa que sus estados sólo pueden ser determinados en combinación – si esto, entonces aquello – para que, al final, las direcciones de espín de sus dos sistemas de centro vacío de nitrógeno estén correlacionadas.


Después de que los microdiamantes hayan ido cayendo uno al lado del otro durante aproximadamente tres segundos, tiempo suficiente como para entrelazarse con la gravedad del otro, pasan a través de otro campo magnético que vuelve a unir las ramas de cada superposición. El último paso del experimento consiste en un protocolo de “testigo de entrelazamiento” desarrollado por la física holandesa Bárbara Terhal y otros: los diamantes azules y rojos entran en dispositivos separados que miden las direcciones de giro de sus sistemas de centro vacío de nitrógeno. (La medición hace que las superposiciones colapsen en estados definidos). Luego se comparan los dos resultados. Realizando varias veces el experimento y comparando muchos pares de mediciones de espín, los investigadores pueden determinar si los espines de los dos sistemas cuánticos están correlacionados entre sí con mayor frecuencia que un límite superior conocido para objetos que no están entrelazados cuánticamente. En este caso, se podrá concluir que la gravedad entrelaza a ambos diamantes y pueden darse superposiciones.

«Lo que es bello de estos argumentos es que realmente no se necesita saber qué es la teoría cuántica, de manera específica», dijo Blencowe. «Todo lo que tienes que saber es que tiene que haber algún aspecto cuántico en este campo que mediará la fuerza entre las dos partículas”.

Sin embargo, la realización del experimento supone salvar abundantes desafíos técnicos. El objeto más grande del que se ha realizado un superposición en dos ubicaciones distintas es una molécula de 800 átomos. Cada microdiamante contiene más de 100 mil millones de átomos de carbono, suficientes como para obtener una fuerza gravitacional adecuada. Descubrir su carácter cuántico requerirá de unas temperaturas más frías, mayor vacío y un control más preciso. La mayor parte del trabajo consiste en poner en marcha esta superposición inicial”, dice Peter Baker, miembro del equipo experimental de la UCL que está mejorando los métodos de enfriamiento por láser y captura de microdiamantes. Si se puede hacer con un diamante, Bose agrega, “entonces hacerlo con dos no supone mucha diferencia”.

Los investigadores que intentan descubrir si la gravedad es una fuerza cuántica no dudan de que la gravedad es una interacción cuántica capaz de inducir el entrelazamiento. Ciertamente, la gravedad es especial en algunos aspectos, y hay mucho por descubrir sobre el origen del espacio y el tiempo, pero la mecánica cuántica debe estar involucrada, dicen. No tiene mucho sentido tener por un lado una teoría de la física que es cuántica y por otro la gravedad, que se considerara desde el punto de vista clásico”, dice Daniel Harlow, un investigador de la gravedad cuántica del MIT. Los argumentos teóricos contra los modelos mixtos cuánticos y clásicos son sólidos (aunque no concluyentes).

Por otro lado, los teóricos ya se han equivocado antes, señaló Harlow: «Así que si puedes comprobarlo, ¿por qué no? Si eso callará a esta gente», es decir, a la gente que cuestiona la gravedad,»eso es genial«.

Dyson escribió en un correo electrónico, después de leer los documentos de la PRL, «El experimento propuesto es ciertamente de gran interés y vale la pena realizarlo con sistemas cuánticos reales». Sin embargo, dijo que la manera de pensar de los autores sobre los campos cuánticos difiere de la suya. «No me queda claro si [el experimento] resolvería la cuestión de si la gravedad cuántica existe», escribió. «La pregunta que he estado haciendo, si un solo gravitón es observable, es una pregunta diferente y puede resultar tener una respuesta diferente.«

De hecho, lo que Bose, Marletto y sus coautores piensan acerca de la gravedad cuántica deriva de cómo Bronstein la concibió por primera vez en 1935. (Dyson dijo que el trabajo de Bronstein es «un hermoso trabajo» que no había visto antes. En particular, Bronstein demostró que la débil gravedad producida por una masa pequeña puede ser estimada por la ley de gravedad de Newton. (Esta es la fuerza que actúa entre las superposiciones de microdiamantes.) Según Blencowe, los cálculos de gravedad cuántica débil no se han desarrollado mucho, a pesar de ser indiscutiblemente más relevantes físicamente que la física de los agujeros negros o el Big Bang. Espera que la nueva propuesta experimental incite a los teóricos a averiguar si existen correcciones sutiles a la aproximación newtoniana que los futuros experimentos de mesa puedan probar.

Leonard Susskind, un destacado teórico de la gravedad cuántica y de las cuerdas de la Universidad de Stanford, destacó la importancia de llevar a cabo el experimento propuesto porque «proporciona una observación de la gravedad en un nuevo rango de masas y distancias». Pero él y otros investigadores enfatizaron que los microdiamantes no pueden revelar nada sobre la teoría completa de la gravedad cuántica o el espacio-tiempo. Él y sus colegas quieren entender lo que sucede en el centro de un agujero negro y en el momento del Big Bang.

Tal vez una pista de por qué es mucho más difícil cuantizar la gravedad que todo lo demás es que otros campos de fuerza en la naturaleza exhiben una característica llamada «localidad»: Las partículas cuánticas en una región del campo (fotones en el campo electromagnético, por ejemplo) son «independientes de las entidades físicas de alguna otra región del espacio«, dice Mark Van Raamsdonk, un teórico de la gravedad cuántica de la Universidad de la Columbia Británica. Pero»hay una gran cantidad de evidencias teóricas de que la gravedad no funciona así».

En los mejores modelos para comprobar la gravedad cuántica (que tienen geometrías espacio-temporales más simples que las del universo real), no es posible asumir que el flexible tejido espacio-temporal se subdivida en piezas tridimensionales independientes, dijo Van Raamsdonk. En cambio, la teoría moderna sugiere que los componentes fundamentales subyacentes del espacio «están organizados más bien en 2 dimensiones«. El tejido espacio-temporal podría ser como un holograma o un videojuego: «Aunque la imagen es tridimensional, la información se almacena en algún chip de computadora bidimensional«, dijo. En ese caso, el mundo 3-D es ilusorio en el sentido de que las diferentes partes de él no son tan independientes. En la analogía del videojuego, un puñado de bits almacenados en el chip 2-D podría codificar las características globales del universo del juego.

La diferencia es importante cuando se trata de construir una teoría cuántica de la gravedad. El enfoque habitual para cuantificar algo es identificar sus partes independientes -por ejemplo, las partículas- y luego aplicarles la mecánica cuántica. Pero si no identificas los constituyentes correctos, obtienes las ecuaciones equivocadas. Cuantificar directamente el espacio tridimensional, como lo hizo Bronstein, funciona hasta cierto punto para la gravedad débil, pero el método falla cuando el espacio-tiempo está muy curvado.

Presenciar la «sonrisa» de la gravedad cuántica ayudaría a estimular estas líneas abstractas de razonamiento, dijeron algunos expertos. Después de todo, incluso los argumentos teóricos más sensatos sobre la existencia de la gravedad cuántica carecen de la importancia de los hechos experimentales. Cuando Van Raamsdonk explica su investigación en un coloquio o conversación, dice, normalmente tiene que empezar diciendo que la gravedad necesita reconciliarse con la mecánica cuántica porque la descripción clásica del espacio-tiempo falla para los agujeros negros y el Big Bang, y en algunos experimentos mentales sobre partículas que chocan con energías inalcanzablemente altas. «Pero si pudieras hacer este simple experimento y obtener el resultado que te muestre que el campo gravitacional estaba realmente en una superposición«, dice, entonces la razón por la que la descripción clásica se queda corta sería evidente: «porque existe este experimento que sugiere que la gravedad es cuántica«.

———————————————–

 

El Principio de Precaución plantea cuánto daño se puede evitar, no cuánto daño estamos dispuestos a aceptar

Por Peter Montague, 16 de febrero de 2017

truth-out.org


En 1980, un científico del Gobierno de los Estados Unidos descubrió que la leche materna estaba tan contaminada con DDT, PCB y otros tóxicos industriales que, si fuera leche de vaca, estaría prohibida por la FDA. Después de décadas de fracaso en la regulación de los productos químicos, un estudio del año 2001 mostraba que los bebés de todo el mundo ingerían tóxicos industriales con la leche materna. Pero incluso peor, en el año 2005, un pequeño estudio que analizó la sangre del cordón umbilical de 10 recién nacidos elegidos al azar en los Estados Unidos mostraba que los bebés ya vienen a este mundo cargados de contaminantes, unos 200 compuestos industriales. (A pesar de estas malas noticias, la lactancia materna sigue siendo la mejor manera de alimentar a un bebé).

Tal vez no sea sorprendente que en los Estados Unidos la salud infantil se siga deteriorando. La incidencia de cáncer en los niños ha aumentado un 20% desde 1974. En los 12 años transcurridos entre 1994 y 2006, las enfermedades crónicas infantiles (asma, obesidad, problemas de aprendizaje y de conducta) se duplicaron (del 13% en 1994 al 27% en 2006).

¿Por qué no se puede controlar la contaminación química?

En 1991, los científicos del Laboratorio Nacional de Oak Ridge descubrieron la razón por la que las sustancias tóxicas industriales se están extendiendo por todas partes, en todo el mundo: las Agencias de Regulación se han basado en una técnica sobre la que toman sus decisiones, que se denomina evaluación cuantitativa (o numérica) para determinar el riesgo de las emisiones químicas y qué cantidad es “segura”. Al emitirse cantidades “seguras” de 80.000 sustancias químicas diferentes, las Empresas han contaminado todo el planeta, por lo que ahora nadie está a salvo de los daños producidos por estas sustancias químicas.

Una evaluación numérica del riesgo es una estimación de la probabilidad de que algún daño se pueda estar produciendo. La evaluación numérica de los riesgos se inventó hace cientos de años para reducir las pérdidas en los juegos de azar. Con el auge de la Industria Química a principios del siglo XX, la evaluación de riesgos comenzó a dominar todo tipo de decisiones. En la década de 1980, el Gobierno de los Estados Unidos adoptó una evaluación numérica del riesgo en la “protección del medio ambiente”. Desde entonces, la evaluación de riesgos se ha utilizado para estimar la probabilidad de un accidente catastrófico en una central nuclear o la probabilidad de que una población de osos pardos se extinga porque se destruyó en exceso su hábitat, o la probabilidad de tener un cociente intelectual bajo debido a la exposición al plomo o a los PCB que se encuentran en las inmediaciones de las escuelas construidas al lado de un basurero de residuos tóxicos.

En sus primeros años (1970-1974), la Agencia de Protección Ambiental (EPA) fue atacada por las Corporaciones que emitían desechos tóxicos, alegando que sus decisiones eran arbitrarias y no científicas. Para aumentar su credibilidad, en 1975 la EPA elaboró su primera evaluación numérica de riesgos, estimando el número de personas que contraerían cáncer por la exposición al cloruro de vinilo [que se utiliza en la fabricación del cloruro de polivinilo o PVC), un producto químico tóxico. En 1983, otras agencias federales también empezaron a tomar sus decisiones en base a la evaluación numérica de riesgos y la Academia Nacional de Ciencias publicó su primer manual de “Cómo hacerlo”. Desde entonces, la evaluación de riesgos ha dominado absolutamente todas las decisiones gubernamentales. Esto ha mantenido muy felices a las Corporaciones que emiten desechos tóxicos.

Por qué las Corporaciones que contaminan no pueden evitar la evaluación de riesgos

Las Corporaciones contaminantes están encantadas con la evaluación numérica de riesgos por muchas razones.

La evaluación de riesgos es compleja y requiere de numerosos cálculos matemáticos, por lo que la mayoría de la gente no la entiende, y mucho menos cuestionar sus conclusiones. Por lo tanto, la evaluación de riesgos disminuye la participación de la gente e incluso socava la legitimidad de los Gobiernos. Por definición, las personas no pueden dar su consentimiento informado de algo que no entienden. Un Gobierno más débil deja más espacio de maniobra para las Corporaciones contaminantes.

Además, la evaluación de riesgos se puede manipular fácilmente. Dos grupos de evaluadores de riesgos, cualificados, con datos idénticos, pueden llegar a estimaciones de riesgo muy distintas. Por lo tanto, la evaluación numérica de riesgos falla la prueba de fuego de la ciencia (la reproducción de los resultados) y no se puede calificar como “científica”. La evaluación de riesgos es un arte de la política que utiliza algunos datos científicos. Como escribió el administrador de la EPA William Ruckelshaus en 1984:

Debemos recordar que la evaluación de riesgos puede ser algo así como el espía que es capturado: si lo torturas lo suficiente te dirá cualquier cosa que quieras saber”.

Además, todos los sistemas biológicos (ya sea el cuerpo humano o un bosque) son extremadamente complejos y nunca se llegan a comprender completamente, por lo que las evaluaciones de riesgo siempre se daban en datos incompletos, que se complementan con suposiciones y estimaciones ( a menudo denominadas “mejor juicio profesional”). Como escribió la Academia Nacional de Ciencias en 1991:

Las técnicas de evaluación de riesgos son extremadamente especulativas, y casi todas dependen de múltiples suposiciones de hecho, algunas de las cuales son imposibles de evaluar”.

De modo que si cambian los supuestos, cambian las conclusiones. Por lo tanto, las evaluaciones de riesgo pueden ser objeto de interminables revisiones, oposiciones y cuestionamientos y recursos judiciales.

Debido a que se trata de una evaluación de carácter matemático, la evaluación numérica de riesgos omite todo lo que no se puede representar mediante números. La evaluación de riesgos da un valor 0 a los saberes anteriores, las costumbres y preferencias locales, los valores espirituales, los lugares considerados sagrados, las perspectivas éticas sobre el bien y el mal, la equidad y la injusticia. En las evaluaciones numéricas de riesgos, estas cosas simplemente no cuentan.

Finalmente, todos los seres humanos (y todos los ecosistemas) están sujetos a múltiples tensiones de forma casi continua. En el ejemplo de los productos químicos, la mayoría de las personas están expuestas de manera rutinaria a las emisiones de los vehículos, a los vapores que emiten las alfombras, pegamentos, los suelos, los muebles, las pinturas, los productos de limpieza, los pesticidas, los desinfectantes del agua potable, etc, etc. Las evaluaciones de riesgos no disponen de ningún método confiable de evaluar las múltiples exposiciones a diferentes sustancias químicas. Por lo tanto, crean un mundo imaginario con una exposición a una sola sustancia química. En este mundo imaginario, una exposición a una sustancia química puede declararse “segura”, aunque en realidad puede resultar muy dañina en combinación con el resto de sustancias químicas a las que estamos expuestos.

Una alternativa: el Principio de precaución

A principios de la década de 1990, los daños provocados por una deficiente evaluación de riesgos era algo obvio. En 1992, los Gobiernos europeos comenzaron a considerar una forma diferente de tomar decisiones sobre cuestiones ambientales. Lo llamaron “Principio de precaución”, y se recogió en el Tratado de Maastricht de fundación de la Unión Europea:

La política comunitaria sobre medio ambiente debe apuntar a unos altos niveles de protección… Se basa en el Principio de precaución y sobre los principios de que deben tomarse medidas preventivas, de que el daño ambiental debe ser rectificado prioritariamente en el origen y que el que contamine debe pagar”.

Ese mismo año, las Naciones Unidas publicaron la Declaración de Río sobre Medio Ambiente y Desarrollo. En ella, el Principio 15 dice:

Con el fin de proteger el medio ambiente, los Estados deben aplicar de manera amplia el principio de precaución según sus capacidades. Cuando existan amenazas de graves o irreversibles daños, la ausencia de certezas científicas no se utilizará como excusa para posponer medidas favorables para prevenir la degradación ambiental”.

Resumiendo, la evaluación de riesgos plantea la cuestión de cuánto daño se puede evitar, no cuánto daño estamos dispuestos a aceptar.

La declaración de Wingspread sobre Precaución

Las primeras declaraciones sobre precaución no fueron objeto de mucha atención hasta enero de 1998, cuando se publicó la Declaración de Wingspread. De repente, había una alternativa a la tradicional evaluación de riesgos. Enfrentados a una nueva incineración de residuos, a una nueva fuente de contaminación por combustible diésel o una propuesta de fractura hidráulica, los activistas podían exigir un enfoque de prevención o cautela para proteger a las personas y el entorno local.

La Declaración de Wingspread fue elaborada por 32 activistas de base, organizaciones laborales, académicos y científicos de los Estados Unidos, Canadá y Europa durante una intensa reunión de un fin de semana en el Centro Wingspread en Racine, Wisconsin. La reunión fue convocada por la Red de Salud Ambiental y Ciencia (SEHN) y el Centro Lowell para la Producción Sostenible de la Universidad de Massachusetts Lowell, y patrocinada por la Fundación Johnson, la Fundación W. Alton Jones y el Fondo CS ( Yo asistí a la reunión y ahora forma parte de SEHN).

La Declaración de Wingspread dice:

Cuando una actividad supone una amenaza para la salud humana o el medio ambiente, se deben tomar medidas de precaución incluso si algunas relaciones de causa y efecto no están completamente establecidas científicamente. En este contexto, el proponente de una actividad, más que la gente, debe asumir la carga de la prueba. El proceso de aplicación del Principio de Precaución debe ser abierto, informado y democrático, y debe incluir a las partes potencialmente afectadas. También debe incluir un examen de todas las posibles alternativas, incluida la de que no se lleve a cabo tal actividad”.

Esta simple declaración contenía cuatro desafíos fundamentales para el dogma de la evaluación numérica de riesgos:

1.- La carga de las pruebas de seguridad debe recaer sobre el proponente de un proyecto o actividad. En un mundo en el que los ecosistemas y la salud humana se encuentran bajo grave amenaza, se supone que los productos químicos industriales y otras intrusiones en el mundo natural son dañinos, a menos que se demuestre lo contrario.

2.- Las decisiones no deber ser tomadas por expertos a puertas cerrada. La gente afectada debe ser totalmente informada y comprometida con las decisiones.

3.- Los que toman las decisiones no deben esperar a que haya certezas científicas de los daños causados antes de tomar medidas preventivas. Es probable que las certezas científicas sólo lleguen después de que se haya producido un daño generalizado.

4.- Los que toman las decisiones deberían considerar una amplia gama de alternativas, incluida la alternativa de considerar el cese de tal actividad o proyecto.

Después de Wingspread

Menos de un mes después de la reunión de Wisconsin, Bette Hileman informaba sobre la Declaración de Wingspread en la muy leída revista Chemical & Enrineering News, calificándola como “una nueva guía para la política ambiental de los Estados Unidos”. Entonces, el Principio de precaución empezó a extenderse como un fuego por la pradera. Una búsqueda en la base de datos de Newsbank revela un fuerte aumento en las noticias mundiales que mencionan el principio de precaución después de la Declaración de Wingspread de 1998 (Figura1).


Las Corporaciones contaminantes y sus sicarios pronto organizaron una campaña de desinformación contra la formulación del Principio de precaución de Wingspread, alegando que no era científica, que era una declaración de carácter emocional, imprudente, mal definida, impracticable y de poner en peligro la civilización occidental. Hasta ahora, con el dinero que corrompe nuestro sistema político, esta campaña contra el Principio de precaución ha sido efectiva en Washington, donde las políticas de precaución federales son poco frecuentes. A nivel local, sin embargo, la cosa es bastante diferente. Los activistas de base han aprovechado el Principio de precaución para utilizarlo como una honda y vencer a Goliat.

En 1999, Carolyn Raffensperger y Joel Tickner publicaron su primer libro en el que presentaban el Principio de precaución. (Raffensperger y Nancy Myers publicaron un segundo libro sobre la aplicación del Principio de precaución por las comunidades en el año 2005). En 1999, el Distrito Escolar Unificado de Los Ángeles adoptó el principio de precaución en su programa de manejo de plagas. En 2001, Michael Pollan escribió sobre el Principio de precaución en The New York Times Magazine. Ese mismo año, la ciudad y el condado de San Francisco comenzaron a adoptar el Principio de precaución, formalizándose en 2003. En resumen, ahora está disponible para que las comunidades aboguen por él y lo adopten: hay otra manera de tomar decisiones relacionadas con el medio ambiente y no solamente hacerlo mediante una evaluación numérica de los riesgos.

La evaluación tradicional de los riesgos está perdiendo fuelle

Incluso a nivel federal en los Estados Unidos, la confianza en la evaluación matemática de los riesgos está perdiendo credibilidad, lentamente. Por ejemplo, la EPA tiene un programa de “diseño para el medio ambiente” que aboga por la selección de productos químicos menos nocivos, que es un enfoque del principio de precaución.

Y lo que es más importante, en el año 2009 la Academia Nacional de Ciencias publicó Science and Decisions, con el subtítulo “Evaluación avanzada de riesgos”. A pesar de ese subtítulo, la Academia no presentaba ningún avance en la evaluación de riesgos, más bien hacía todo lo contrario, la degradaba. La Academia venía a decir que las decisiones en la actualidad comienzan con una evaluación alternativa, y se preguntan: “¿Cuáles son las opciones para lograr nuestro objetivo (el que sea) y qué opciones son las menos dañinas? Esta es la esencia del Principio de precaución”. Sólo después de que se hayan presentado diferentes opciones, sólo entonces se debería utilizar una evaluación de riesgos como una herramienta para evaluar cada una de las opciones y encontrar la menos dañina, dijo la Academia. Y, por supuesto, ahora se disponen de otras herramientas de evaluación. El informe de la Academia de 2009 dio un duro golpe a las antiguas decisiones sobre riesgos.

Aún así, el Principio de precaución, mejor prevenir que curar, ahora se encuentra bajo un nuevo ataque en Europa, el Reino Unido y en los Estados Unidos. El monstruo de la extrema derecha, asentado en el Partido Republicano ( y que Nancy MacLean describe como una “quinta columna” que intenta subvertir de manera permanente la Democracia) ha puesto su punto de mira en la eliminación del Principio de cautela. El abandono del Acuerdo de París es sólo un ejemplo.

A medida que los ecosistemas globales de deterioran y el calentamiento global altera los patrones hídricos, de modo que el crecimiento económico es cada vez más precario, las élites globales de extrema derecha confían en nuevas tecnologías para estimular el crecimiento económico: geoingeniería (para modificar el clima planetario y contrarrestar el calentamiento global); nanotecnología (para manipular el mundo a nivel molecular y desarrollar materiales novedosos) y biología sintética (para desarrollar formas de vida completamente nuevas, previamente desconocidas en la naturaleza). Estas tecnologías son potencialmente más poderosas que incluso la energía atómica, por lo que se pide un enfoque prudente y de cautela ante los ensayos y su posible aplicación. Desafortunadamente, mientras las Corporaciones contaminantes disfruten de una capacidad ilimitada de inyectar dinero corrupto en las decisiones políticas, especialmente en los Estados Unidos, la evaluación de riesgos al estilo antiguo continuará dominando porque sirve muy bien a los interés y propósitos de las Corporaciones.

Sin embargo, 20 años después de Wingspread, ahora está claro que para que tengamos un futuro habitable es necesario aplicar el Principio de precaución. La elección es fatal e irrevocable.

Peter Montague es historiador y periodista, cuyo trabajo ha aparecido en Counterpunch, Huffington Post, The Nation y muchas otras publicaciones. Es coautor de dos libros sobre metales pesados tóxicos.

————————————————-

Predisposiciones genéticas humanas: la política oculta de la Ciencia Genómica

Por Jonathan Latham

bioscienceresource.org

Introducción

La mayor parte de la actual investigación médica asume que las predisposiciones genéticas hereditarias subyacen en las actuales epidemias y trastornos (no infecciosos). En una lista no completa se incluyen la diabetes tipo II, las enfermedades cardíacas, el cáncer, el autismo, diversas enfermedades mentales, la miopía y los accidentes cerebrovasculares. Históricamente, este paradigma genético determinista fue impulsado por la Industria Tabacalera. La Industria intentó desviar su responsabilidad en la epidemia de cáncer de pulmón a las “debilidades genéticas” personales, por ejemplo, los supuestos “genes del cáncer de pulmón” y los “genes de la adicción”. Las principales evidencias que apoyaron tales variantes genéticas fueron los experimentos conocidos como estudios de gemelos. Sin embargo, hay buenas razones para pensar que los estudios de gemelos son una metodología insuficiente que sobrestima en gran medida la contribuciones genéticas.

Los recursos que se incluyen en esta página revelan los orígenes no científicos y el consiguiente fracaso científico del paradigma de las enfermedades centradas en los genes. Los recursos están organizados por temas. El primero es El papel político de la investigación genética humana. Se sigue con artículos que muestran cómo Los estudios de gemelos crean unas falsas estimaciones de heredabilidad. Estas estimaciones llevaron a la aparición y subsiguiente Fracaso de la hipótesis de la enfermedad común-variantes comunes (CD-CV). La hipótesis CD-CV suponía que algunas variantes genéticas comunes (es decir, mutaciones) serían las responsables de cada enfermedad. Sus defensores asumieron que el análisis genético de las variantes identificaría a las personas en riesgo de enfermedad y que la identificación de la variante llevaría al desarrollo de nuevos tratamientos. Posteriormente, los investigadores realizaron miles de estudios de asociación entre el genoma completo (GWA) y el gen candidato (CGA) para identificar estas variantes. Sin embargo, se cometieron errores teóricos y experimentales en los estudios GWA y CGA. Los resultados de tales estudios apenas son reproducibles y sus hallazgos no han respaldado la hipótesis CD-CV, ni respaldan un papel destacado de la genética en las enfermedades más comunes.

Desafiando el actual paradigma centrado en los genes, muchos investigadores se han preguntado: ¿En qué pueden beneficiar a la Salud Pública la Genómica y las Pruebas Genéticas? Sugieren, en cambio, ocuparse de la prevención y el tratamiento de enfermedades complejas abordando causas conocidas como la mala alimentación, la falta de ejercicio, la pobreza y la contaminación. Es hora de que se actualice nuestra comprensión de El papel biológico del ADN, para así abordar la complejidad de los organismos y su interacción con el medio ambiente.

Artículos científicos nuevos y los ya considerados clásicos

El papel político de la investigación genética humana:

Pasado y presente

 

Jonathan Latham y Allison Wilson: “La ausencia de datos sobre el ADN: ¿es un espejismo la responsabilidad de los genes en las enfermedades?. Independent Science News. Diciembre de 2010.

Este artículo introductorio revisa la ausencia de estudios de asociación del genoma (GWA) para identificar aquellos genes que predisponen a sus portadores a enfermedades comunes. Argumentan que este hallazgo debe ser considerado como “el avance científico más importante en la comprensión de la salud humana en los últimos veinticinco años”. Se revisan resultados recientes de GWA (estudios de asociación del genoma completo), estudios de gemelos y otros datos, todos los cuales sugieren que los genes no son los mejores predictores de las enfermedades ni los mejores objetivos para la prevención o curación. Los autores sugieren que es hora de reconsiderar la financiación de la investigación científica de las enfermedades comunes, desde enfermedades cardíacas, accidentes cerebrovasculares, el cáncer, la diabetes, hasta trastornos como el autismo, el TDAH y la demencia, y problemas de salud mental como la esquizofrenia y la depresión. El artículo incluye una lista de enlaces a libros y artículos adicionales sobre el tema.

Gundle, Kenneth R., Molly J. Dingel y Barbara A. Koenig. La mayor esperanza de la Industria: el apoyo de la Industria Tabacalera a la investigación sobre la genética de la adicción a la nicotina”. Addiction 105. 6 (2010): 974-983.

El análisis de Legacy Tobacco Documents ilustra cómo “la búsqueda de una base genética para el hábito de fumar responde al plan que durante décadas viene llevando cabo la Industria para desviar la responsabilidad de las empresas de tabaco hacia la constitución genética de los individuos”.

Wallace, Helen M. “La Industria del Tabaco y el genoma humano: ¿manejando el tren de la Ciencia?” Genomics, Society & Policy 5.1 (2009).

La Industria Tabacalera promovió en la década de 1950 la idea de que una una parte de los fumadores está “genéticamente predispuesto” a padecer cáncer de pulmón”. Wallace utiliza documentos de la Industria Tabacalera para investigar su papel en la financiación del “tren de la Ciencia” en el que la genética dominaría la agenda de investigación del cáncer. Wallace concluye “que la Industria Tabacalera ha jugado un importante papel en la configuración de las agendas de investigación, promoviendo la idea de que el análisis individual del genoma sería beneficioso para la salud pública”.

Libro: Campbell, T. Colin y Howard Jacobson. “Una visión integral: Repensando la Ciencia de la Nutrición”. BenBella Books, Inc. 2013.

T. Colin Campbell, a partir de sus 50 años de experiencia en investigación, intenta mostrar cómo el reduccionismo genético y nutricional encaja con poderosos intereses para impedir una mejor comprensión científica. La desinformación resultante perjudica la salud individual y pública. Campbell explica cómo la adopción de un paradigma “integral” revitalizaría la ciencia y revolucionaría el cuidado de la salud.

Libro: Lewontin, Richard C. “La Biología como Ideología: La doctrina del ADN”. House of Anansi. 1991.

Corto y elegante. El genetista Richard Lewontin argumenta que los rasgos (por ejemplo, la altura) son el producto de los genes, el azar y el medio, todos ellos irreductiblemente entrelazados. Discute las falacias lógicas que sustentan la Sociobiología y los peligros del reduccionismo científico para la sociedad. Consulte la reseña del libro en : “La Biología como Ideología: La doctrina del ADN”. Descubra por qué los investigadores, los políticos y tantos otros se sienten atraídos por los argumentos de los deterministas genéticos.

Los estudios de gemelos generan estimaciones erróneas de heredabilidad

Beckwith J. y Morris-Singer CA (2012). Heredabilidad faltante: entorno oculto en los estudios genéticos del comportamiento humano”. Capítulo del libro en: NOMOS LII: Evolución y Moralidad. Ediciones Fleming J, Levison S; Nueva York: NYU Press; páginas 122-136.

La búsqueda de predisposiciones genéticas ha recibido un impulso por las estimaciones de heredabilidad derivados de estudios de gemelos. Los estudios de gemelos estiman el rasgo de “heredabilidad” comparando la concordancia de la enfermedad y los fenotipos de comportamiento entre conjunto de gemelos idénticos y no idénticos. El fracaso sistemático de los estudios GWA para encontrar la variación suficiente que apoye las estimaciones de heredabilidad de los estudios de gemelos se ha denominado «heredabilidad faltante». Beckwith y Morris-Singer muestran que la atribución errónea de influencias ambientales a la genética puede explicar la denominada “heredabilidad faltante”. Los autores cuestionen numerosas suposiciones que subyacen en la genética del comportamiento.

Joseph, Jay. La genética de las actitudes de los conductas políticas: afirmaciones y refutaciones”. Psicología ética y humana y psiquiatría, 12.3 (2010): 200-217.

Explica por qué “la principal suposición teórica del método de los gemelos sostiene que los pares de gemelos monocigóticos y dicigóticos que experimentan entornos iguales (AEMA)” es insostenible. Propone que las estimaciones de los estudios en gemelos de los efectos genéticos pueden explicarse completamente por factores no genéticos.

Richardson, Ken y Sarah H. Norgate. “Análisis crítico de los estudios de coeficiente de inteligencia de los niños adoptados”. Human Development 49.6 (2007): 319-335.

Recientes estudios de IQ en niños adoptados afirman que la varianza genética aditiva subyace en la variación del cociente intelectual. Richard y Norgate identifican los efectos no genéticos (por ejemplo, la edad, la restricción de rango, los efectos del tratamiento familiar) que minan las conclusiones de los estudios de adopción.

Rose, Steven PR. Comentario: Estimaciones de heredabilidad -hace tiempo que sobrepasaron la fecha de caducidad”. International Journal of Epidemiology 35.3 (2006): 525-527.

Los sistemas biológicos son complejos, no lineales y no aditivos. Las estimaciones de heredabilidad son intentos de imponer una dicotomía simplificada y reificada (naturaleza/nutrición) en procesos no dicotómicos”. Recomienda que los investigadores “intenten analizar las causas, no varianzas”. Resume los problemas con las estimaciones de heredabilidad.

Joseph, Jay. “No en sus genes: una visión crítica de la genética del trastorno por déficit de atención con hiperactividad”. Developmental Review 20.4 (2000): 539-567.

Joseph examina tantos los estudios de gemelos como los estudios de adopción en sus consideraciones sobre el TDAH e identifica numerosos factores que invalidan la suposición de un medio ambiente idéntico (AEMA). La validez de un AEMA es fundamental para dar crédito a las estimaciones de heredabilidad de los estudios de gemelos.

Stoltenberg, Scott F. “Ponerse de acuerdo con la Heredabilidad (1997)”. Genetica 99.2-3 (1997): 89-96.

Citando a Stoltenberg: “En un sentido genético, sólo los componentes de los gametos se heredan, los rasgos se desarrollan de nuevo en cada individuo. Sin embargo, cuando los científicos hacen afirmaciones que sugieren que un comportamiento es hereditario, perpetúan el malentendido de que los comportamientos se transmiten de padres a hijos, como un testigo que pasa de un corredor a otro”. Con su cuidadosa discusión de la herencia “técnica” contra “tradicional”, y lo que realmente es heredado, Stoltenberg aclara varios conceptos erróneos y sugiere una nueva palabra, “seleccionabilidad” como una posible solución a la actual confusión tanto de científicos como de la gente sobre las discusiones en torno a la heredabilidad.

El fracaso de la hipótesis de la

enfermedad común-variantes comunes (CD-CV)

Buchanan, Anne V., Kenneth M. Weiss y Stephanie M. Fullerton. “Disección de enfermedades complejas: ¿la búsqueda de la piedra filosofal?”. International Journal of Epidemiology 35.3 (2006): 562-571.

Los autores se preguntan: “¿por qué los métodos tradicionales utilizados en epidemiología y genética no han sido suficientes para determinar las causas de enfermedades complejas, y por qué el riesgo individual es imposible de predecir?”. Discuten las dificultades para determinar las causas genéticas o ambientales específicas de las enfermedades complejas, pero tenga en cuenta que “afortunadamente, muchas de las enfermedades complejas más comunes se pueden prevenir o modificar con cambios en el comportamiento, tales como la dieta y el ejercicio”, lo que permite la prevención o como terapia, aunque no se haya determinada la causa exacta…”tal vez va siendo hora de que los científicos lo tengan en consideración”.

Terwilliger, Joseph D. y Harald HH Göring.”Mapa genético en los siglos XX y XXI: métodos estadísticos, análisis de datos y diseño experimental”. Human Biology 81.5 (2000): 663-728.

En el año 2000, los autores se preguntaron si las suposiciones no probadas y poco realistas obstaculizaban la comprensión por parte de los genetistas de la relación entre los rasgos y las enfermedades complejas. Los autores citan la hipótesis de enfermedad común-variantes comunes (CD-CV), “que asumía que los alelos comunes con elevadas fracciones atribuibles, como APOE4 y la enfermedad de Alzheimer, dominarían la etiología del rasgo”, como un excelente ejemplo de tales suposiciones. Terwilliger y Göring dijeron en su lugar “que es probable que un número mayor de alelos poco comunes participe en la etiología de las enfermedades complejas”.

Terwilliger, Joseph D. y Harald HH Göring.Actualización de Terwilliger y Göring”; Mapa Genético en los siglos XX y XXI (2000): mapa genético cuando las variantes raras son comunes y las variantes comunes son raras” Human biology 81.5/6 (2009): 729-733.

En el año 2000, Terwilliger y Göring argumentaron en contra de la hipótesis de la enfermedad común-variantes comunes (CD-CV) que en ese momento se creía que era el modelo plausible para la genética de las enfermedades complejas (es decir, el cáncer, la diabetes, el Alzheimer, etc)… “Diez años después y millones de dólares de los contribuyentes gastados, nuestra posición, que ante fue considerada extrema, ha reemplazado a la opinión dominante hace una década, ya que la reciente avalancha de datos empíricos de estudios de asociación del genoma arroja resultados que son inconsistentes con la hipótesis CD-CV y los escenarios optimistas sobre una medicina personalizada”. Terwilliger y Göring argumentan (una vez más) que es hora de reconsiderar la investigación sobre la causalidad de las enfermedades comunes.

Jonathan Latham y Allison Wilson. “La ausencia de datos sobre el ADN: ¿se trata de un espejismo la relación entre los genes y las enfermedades?”. Independent Science News. Diciembre de 2010  (Véase el primer recurso bajo el encabezado: El papel político de la investigación genética humana: pasado y presente). Este artículo introductorio también tiene una explicación de la hipótesis CDE-CV y cómo ha sido desmentida por los estudios GWA [ estudios de asociación del genoma completo].

Pearce, Neil. Epidemiología en un mundo en evolución: variación, causalidad y factores ubicuos de riesgo”. International Journal of Epidemiology 40.2 (2011): 503-512.

Muchos factores de riesgo de enfermedad están ahora omnipresentes o casi omnipresentes en ciertas poblaciones: inactividad; altos niveles de consumo de productos animales y alimentos procesados; sustancias químicas causantes de cáncer; y exposición a la radiación, por nombrar algunos. Cuando los factores de riesgo están omnipresentes, las causas de la variación de la enfermedad en las poblaciones pueden atribuirse únicamente a los genes, mientras que a menudo los mejores métodos de prevención o curación serían los cambios en el estilo de vida o la mejora de la salud ambiental. Para ilustrar, «vivimos en un planeta donde casi todo el mundo tiene una dieta alta en fenilalanina….. La PKU (fenilcetonuria) es considerada como una enfermedad clásica de carácter genético, pero la intervención es ambiental. Esto se debe a que la PKU es «causada por el efecto conjunto» del gen y la dieta alta en fenilalanina. De hecho, el 100% de los casos de PKU son causados por el gen (y esencialmente su heredabilidad es del 100%), ya que el 100% de los casos podrían en teoría ser prevenidos eliminando el gen de la población. Sin embargo, el 100% de los casos también pueden prevenirse reduciendo la fenilalanina en la dieta. «Por lo tanto, para desarrollar una comprensión precisa de las causas y métodos eficaces para su prevención o tratamiento, los investigadores deben tener en cuenta factores de riesgo omnipresentes y, por lo tanto, a menudo ocultos”.

Se cometieron errores en los estudios GWA y CGA

[Asociación entre el genoma completo (GWA) y el gen candidato (CGA)]
Ioannidis, John PA, y col. Validez de los estudios de asociación genética”. Nature Genetics 29.3 (2001): 306-309.

Al evaluar por metaanálisis “370 estudios que abordan 36 asociaciones genéticas sobre diversos resultados de la enfermedad”, los autores encontraron que “el primer estudio tendió dar estimaciones más impresionantes de la protección o predisposición a la enfermedad que la posterior investigación”. Discuten el porqué.

Lambert, Christophe G. y Laura J. Black. Aprender de nuestros errores de los estudios de asociación del genoma completo (GWAS): del diseño experimental al método científico”. Biostatistics 13.2 (2012): 195-203.

Lambert y Black discuten sobre los errores básicos de diseño experimental y los “errores por omisión” que siguen plagando los estudios de asociación del genoma completo (GWA). Estos van desde el uso de diferentes fuentes de ADN y la falta de aleatorización de los bloques de casos y controles, hasta la búsqueda de correlaciones en lugar de intentar la falsación de hipótesis. “A menudo, una investigación más profunda sobre lo que parece como un hecho aislado lleva a la apreciación de un problema más amplio”. Señalan el valor de los errores, si aprendemos de ellos. Un valioso recordatorio de lo que hace que la ciencia sea “científica”.

Charney, Evan y William English.Genes candidato y Comportamiento Político”. American Political Science Review 106.01 (2012): 1-34.

Charney y English analizan un artículo del año 2008 que afirmaba haber demostrado que “dos genes predicen la participación de los votantes” (Fowler y Dawes, 2008). Los autores ilustran cómo una enorme cantidad de problemas metodológicos minan la validez de los estudios de Asociación de genes candidatos (CGA). Entre estos problemas se incluyen clasificaciones defectuosas de genotipo y estratificación de la población. Reanalizaron los datos de Fowler y Dawes para mostrar que, de hecho, “dos genes no predicen la participación electoral”.

El coste: ¿La genómica y las pruebas genéticas

pueden beneficiar a la salud pública?

Hall, Wayne D., Rebecca Mathews y Katherine I. Morley. Ser más realistas sobre los efectos en la salud pública de la medicina genómica”. PLoS medicine 7.10 (2010).

Se cuestionan los beneficios para la salud de predecir el riesgo de sufrir una determinada enfermedad a partir de la información de riesgo genético, ahora o en el futuro. También se destacan los costes de las estimaciones de riesgo genético, que incluyen falsos positivos. Otros costes incluyen el despreciar el valor del cambio en el estilo de vida y el uso indebido por parte de la Industria, que evita así sus responsabilidades (por ejemplo, la Industria del Tabaco).

Wallace, Helen M. Análisis genético para determinar la susceptibilidad a la enfermedad”. eLS (2009).

Un artículo muy valioso para comprender el propósito principal detrás del impulso para la realización de las pruebas genéticas. “No existen pruebas de susceptibilidad genética que cumplan los criterios médicos de evaluación, y hay un creciente escepticismo en la literatura científica de que alguna vez lo hagan. Sin embargo, existe un destacado compromiso político y comercial en la detección genética de la susceptibilidad a la enfermedad” , tratando de establecer un vínculo entre los datos del ADN con los registros médicos, de modo que puedan extraerse para predecir y prevenir la enfermedad. Wallace disecciona el impulso científico y las medidas políticas que hay detrás de las pruebas genéticas y los usos propuestos.

Wallace Helen M. Un modelo de interaccione gen-gen y gen-ambiente y sus implicaciones para dirigir las intervenciones ambientales por genotipo”. Theor Biol Med Model . Vol. 3:35 (2006).

El valor práctico de “enfocar las intervenciones ambientales por genotipo depende de las contribuciones ambientales y genéticas a la varianza de las enfermedades comunes, y la magnitud de cualquier interacción entre el gen y el medio ambiente”. Wallace desarrolla un nuevo modelo para examinar estas interacciones y concluye que los beneficios para la salud pública de tales intervenciones dirigidas pueden ser limitados.

Chaufan, Claudia y Jay Joseph. Heredabilidad faltante de las enfermedades comunes: ¿deberían importar a los investigadores de la salud?”. International Journal of Health Services 43.2 (2013): 281-303.

¿Nuestra sociedad está básicamente sana y aquellos que caen enfermos tienen una predisposición genética deficiente? ¿Puede la salud pública beneficiarse de la información genética humana? Los autores argumentan que “centrarse en la genética es una enorme distracción” de la investigación y de las verdaderas políticas de promoción de la salud.

Prevención y tratamiento de las enfermedades complejas

Joseph, Jay. «Una parábola de la genética humana «. Journal of Mind & Behavior 32.3 (2011).

Naturaleza vs. Nutrición o Herencia vs. Medio Ambiente. Ilustra inteligentemente la divergencia de opiniones y estrategias entre quienes creen que las causas y soluciones significativas de los trastornos psiquiátricos y las enfermedades médicas comunes se encontrarán en los genes de un individuo y quienes creen que la evaluación y modificación del medio ambiente (incluyendo la clase social, la educación, la dieta, la exposición ambiental y el estilo de vida) son más prometedoras. Sería un excelente artículo de discusión para los estudiantes.

Chaufan, Claudia. ¿En qué medida puede contribuir un amplio estudio de población sobre genes, entornos, sus interacciones y las enfermedades comunes en la salud de los estadounidenses?”. Social Science & Medicine 65.8 (2007): 1730-1741.

Usando la diabetes tipo II como ejemplo, Chaufan responde a su pregunta y describe cómo debiera ser una política de salud pública significativa.

Booth, Frank W., et al. “La guerra contra las enfermedades crónicas modernas: Prevención primaria a través de la Biología del ejercicio”. Journal of Applied Physiology 88.2 (2000): 774-787.

Sugiere por qué la actual “guerra contra las enfermedades crónicas” de la medicina moderna, que se centra en la causalidad genética y el desarrollo de “tratamientos de enfermedades secundarias y terciarias”, no logra frenar la epidemia de enfermedades crónicas. Propone estrategias de prevención de enfermedades, con un enfoque en la dieta y el ejercicio, como armas más fructíferas. Ilustra cómo la tecnología disminuye la actividad humana y con la inactividad aumenta el riesgo de una mala salud.

Epstein, Samuel S., y col . La crisis en los Estados Unidos y la política internacional contra el cáncer”. International Journal of Health Services 32.4 (2002): 669-707.

El establishment estadounidense en la lucha contra el cáncer lleva luchando contra él durante 40 años y perdiendo “la guerra contra el cáncer”. El National Cancer Institute (NCI) y la American Cancer Society (ACS) en conjunto han gastado miles de millones de dólares de los contribuyentes y donantes en diferentes enfoques fallidos, mientras que la epidemia de cáncer aumenta de manera inexorable. Epstein sostiene que la mayoría de los cánceres se pueden prevenir eliminando los carcinógenos en el lugar de trabajo y el medio ambiente y en los productos de consumo. Sin embargo, los conflictos de interés dentro del establishment del cáncer y el mundo académico aseguran que la gente, los legisladores y las agencias de regulación seguirán sin estar informados sobre la prevención del cáncer. Las consecuencias de estos fracasos llevan a un sufrimiento innecesario y a la muerte prematura de muchas personas víctimas de cáncer, sometiendo a las personas a tratamientos innecesarios debido a falsos positivos durante las pruebas de detección del cáncer.

Epstein, Samuel S.Perdiendo la guerra contra el cáncer: quién tiene la culpa y qué hacer al respecto”. International Journal of Health Services 20.1 (1990): 53-71.

Epstein detalla las principales fuentes de exposición a los carcinógenos. Estos datos son vitales para llevar a cabo una política eficaz de prevención del cáncer. A continuación, describe los diversos obstáculos a la regulación del carcinógeno y otras estrategias de prevención necesarias. Ilustra cómo el NCI y la AEC están «interponiéndose en el camino de la prevención» y esboza la estrategia utilizada por la industria para bloquear una regulación apropiada. También critica el «estilo de vida académico», como Sir Richard Doll y Bruce Ames, de quienes dice que distraen la atención de importantes fuentes de exposición involuntaria a agentes cancerígenos como en el lugar de trabajo y los productos de consumo. El cáncer debe ser considerado como una enfermedad esencialmente prevenible «y Epstein detalla cómo prevenirla.

El papel biológico del ADN

Charney, Evan . Genética del Comportamiento y Postgenómica”. Behavioral and Brain Sciences 35.5 (2012): 331.

¿Será posible predecir el fenotipo a partir del genotipo? Los avances recientes en la ciencia de la genética (desde la actividad retrotransposonible hasta la epigenética) sugieren que el fenotipo de un organismo depende de muchos eventos aleatorios y estocásticos que no han sido incorporados en las teorías del desarrollo perinatal, la función cerebral y el comportamiento. Tampoco se han incorporado en los análisis de la validez de los estudios de asociación de gemelos o genes (GWA).

Libro: Krimsky, Sheldon y Jeremy Gruber. Explicaciones genéticas: Sentido y disparates (2013)”. Harvard University Press, 2013.

En palabras del coeditor Sheldon Krimsky, «Los capítulos de este volumen ofrecen un contrapunto a las afirmaciones exageradas, erróneas o excesivamente simplificadas sobre el papel que desempeña el ADN en las células, los organismos, la evolución, el comportamiento humano y la cultura». Una excelente revisión de este libro y una visión actualizada del papel del ADN que se basa en los hallazgos científicos más recientes. Lea: Ensayo sobre Explicaciones Genéticas” de Evan Charney.

Annila, Arto y Keith Baverstock. “Genes sin protagonismo: una reevaluación de los fundamentos de la Biología”. Journal of The Royal Society Interface 11.94 (2014): 20131017.

La secuenciación del genoma humano plantea dos interrogantes intrigantes: ¿por qué la predicción de la heredabilidad de enfermedades comunes por la presencia de alelos anormales ha demostrado ser tan poco gratificante en la mayoría de los casos y cómo pueden unos 25.000 genes generar una complejidad tan rica y evidente en el fenotipo humano? Annila y Baverstock proponen que «la Biología puede entenderse mejor en términos de la física de los sistemas disipativos complejos (consumidores de energía) y la segunda ley de la termodinámica, donde la capacidad de extraer energía (nutrientes) del medio ambiente proporciona la base para la selección natural«. Al dejar atrás al ADN, consideran el papel de las proteínas, las vías metabólicas, el medio ambiente y la termodinámica en la creación del fenotipo.

Otros sitios web con recursos científicos

Consejo para la Genética Responsable

El Consejo para la Genética Responsable representa el interés público y fomenta el debate público sobre las implicaciones sociales, éticas y ambientales de las tecnologías genéticas «Los temas incluyen: patentes, clonación, pruebas genéticas, determinismo genético, privacidad, guerra biológica y más ”.

GeneWatch UK

GeneWatch UK es una organización sin fines de lucro que tiene como objetivo asegurar que las tecnologías genéticas se desarrollen y utilicen en interés público – para que promuevan la salud humana, protejan el medio ambiente y respeten los derechos humanos y los intereses de los animales. Genewatch cubre la genética humana, los organismos modificados genéticamente (OMG) y las armas biológicas. También supervisan los programas de investigación (incluidas las bases de datos de ADN y los biobancos) y las patentes. GeneWatch UK desempeña un papel esencial para mantener informados a los científicos y al público en general sobre cuestiones genéticas clave.
HealthNewsReview.org

¿Con qué fidelidad reflejan las informaciones sobre temas de salud los hallazgos científicos reales y sus implicaciones? Ofrece un análisis crítico independiente de las noticias sobre salud.
El cuento de la Sirena

Subtitulado Una Conversación sobre la naturaleza de la causalidad genética en la evolución, el desarrollo y la ecología, el blog de cuentos de sirenas ofrece discusiones divertidas y eruditas sobre temas que van desde la causalidad de la enfermedad hasta las probabilidades. Entre los colaboradores se incluyen: Ken Weiss, Anne Buchanan y Holly Dunsworth.

——————————————–

 

 

 

Todos los estudios revisados por pares sobre alteración hormonal fueron excluidos en la evaluación del glifosato por parte de la UE

Por Claire Robinson, 26 de septiembre de 2017

GMWatch.org

El 100% de los estudios científicos fueron rechazados por razones no científicas

El experto en productos químicos Tony Tweedale, de RISK Consultancy, ha hecho un comentario sobre nuestro artículo en el que se informa de la conclusión de la Autoridad Europea de Seguridad Alimentaria (EFSA) de que el glifosato no es un disruptor endocrino. Tweedale ha analizado el informe de la industria en el que se basó la conclusión de la EFSA. Nos dice que todos los estudios revisados por pares fueron excluidos de la evaluación de la EFSA. Sin embargo, una proporción significativa de estos estudios señala que el glifosato y sus formulaciones comerciales tienen efectos perturbadores endocrinos.

La evaluación de la EFSA fue promovida por la Comisión Europea, que solicitó una revisión bibliográfica actualizada de las posibles alteraciones hormonales del glifosato. La revisión fue realizada por la firma consultora Knoell para el Grupo de Trabajo sobre Glifosato (GTF), la coalición de compañías de pesticidas que está tratando de conseguir la reaprobación del glifosato en Europa.

La revisión identificó 104 estudios publicados.

Tweedale dijo a GMWatch:

«Dos fueron excluidas por una evaluación que decía no responder a la pregunta del estudio. Otros cinco quedaron excluidos por la evaluación de la fiabilidad del texto. Pero los 97 restantes (93%) se excluyeron sólo mediante la evaluación del título y/o el resumen, es decir, antes de que se realizara cualquier evaluación de la calidad del estudio. El número de estudios publicados que se consideró lo suficientemente fiable como para ser un estudio clave, es decir, para establecer una dosis segura o tomar otra decisión de evaluación del riesgo, fue precisamente de cero «.

La EFSA no puso en tela de juicio esta amplia eliminación de datos científicos.

La relevancia y la fiabilidad está definida por la Industria

Seguramente la «pertinencia» y la «fiabilidad» son cualidades deseables en cualquier estudio utilizado para la evaluación de riesgos. Bueno, depende de quién defina y utilice los criterios.

Tres empleados de la empresa química BASF definieron los criterios para juzgar la pertinencia y fiabilidad de las pruebas de toxicidad para su inclusión en la evaluación de riesgos en un documento publicado en 1997. Este artículo se conoce como el papel de Klimisch, por aparecer como primer autor.

Se recomienda que los criterios de Klimisch se utilicen en la evaluación de riesgos por la Agencia Europea de Sustancias y Preparados Químicos (ECHA) y por la EFSA.

Según Tweedale, cuando los criterios de Klimisch fallan, es porque definen la «fiabilidad» simplemente como el cumplimiento de las directrices de ensayo establecidas por la Organización de Cooperación y Desarrollo Económicos (OCDE). Estas directrices establecen los protocolos que la industria debe seguir para llevar a cabo estudios de toxicidad realizados en animales de laboratorio con fines de regulación. Incluyen el requisito de que los experimentos se realicen de acuerdo con las Buenas Prácticas de Laboratorio (BPL), un conjunto de reglas de gestión de laboratorio que fueron introducidas por los reguladores en la década de 1970 en respuesta al grave fraude de la industria en las pruebas de seguridad química.

Los científicos que trabajan fuera de la industria generalmente no utilizan las directrices de la OCDE, dice Tweedale, porque prueban dosis altas y poco realistas y tienen otras deficiencias. Por lo tanto, los únicos estudios que se adhieren a estas directrices son los estudios de la industria realizados con fines regulatorios. Por lo tanto, los criterios de Klimisch rechazan todos los estudios no realizados por considerarlos poco fiables o en los que se puede confiar «con restricciones», es decir, menos fiables que un estudio conforme a la OCDE.

En el caso de la revisión de la alteración endocrina del glifosato, se descartaron 99 estudios utilizando un puñado de criterios que son atribuciones de los estudios de la OCDE. Los cinco estudios restantes se consideraron «no confiables» o confiables sólo «con restricciones», mediante el uso explícito de una «Evaluación Klimisch».

Tweedale dice:»En general, Knoell descartó algunas docenas de conclusiones significativas sobre el glifosato o la alteración endocrina , basadas en gran medida en los criterios de Klimisch: la sujeción a las directrices de la OCDE y / o directrices establecidas por la EPA de EE. UU.«.

Tweedale dice que el problema no se limita al glifosato, sino que se aplica prácticamente a todas las reautorizaciones de plaguicidas. Algunas revisiones de la industria no encuentran docenas o cientos de resultados publicados de toxicidad. En la medida en que los encuentran, los descartan casi todos antes de evaluarlos, típicamente según los criterios de fiabilidad de Klimisch «.

Los registros de sustancias químicas bajo el reglamento REACH (Registro, Evaluación, Autorización y Restricción de Sustancias Químicas) de la UE son igual de malos, dice Tweedale, con un gran número de estudios revisados por pares que se ignoran o rechazan sobre la base de los criterios de Klimisch.

Tweedale dice:

«En general, Knoell descartó algunas docenas de conclusiones significativas sobre el glifosato o la alteración endocrina , basadas en gran medida en los criterios de Klimisch: la sujeción a las directrices de la OCDE y / o directrices establecidas por la EPA de EE. UU.».

Tweedale dice que el problema no se limita al glifosato, sino que se aplica prácticamente a todas las reautorizaciones de plaguicidas. Algunas revisiones de la industria no encuentran docenas o cientos de resultados publicados de toxicidad. En la medida en que los encuentran, los descartan casi todos antes de evaluarlos, típicamente según los criterios de fiabilidad de Klimisch «.

Los registros de sustancias químicas bajo el reglamento REACH (Registro, Evaluación, Autorización y Restricción de Sustancias Químicas) de la UE son igual de malos, dice Tweedale, con un gran número de estudios revisados por pares que se ignoran o rechazan sobre la base de los criterios de Klimisch.

Lo que dicen los reglamentos

El reglamento de la UE sobre plaguicidas exige que los estudios revisados por pares se tengan en cuenta durante el proceso de aprobación de plaguicidas. Incluso se permite recurrir a ellos para prohibir un plaguicida. La ECHA tiene los mismos requisitos para evaluar todos los datos disponibles. Tweedale dice:»Ambas leyes han fracasado, con un 75-80% de los resultados publicados sin ser reconocidos, y cada uno de las que se descubren ha sido rechazado por motivos no científicos«.

Si bien las Orientaciones de la EFSA establecen que los demandantes de la industria no deben descartar un estudio como irrelevante sólo porque no se lleven a cabo de acuerdo con las directrices de la OCDE o las BPL [Buenas Prácticas de Laboratorio], también recomiendan los criterios de Klimisch como herramienta principal para evaluar la calidad de los estudios.

Al permitir el uso de los criterios de Klimisch, la EFSA y la ECHA permiten la práctica de descartar los estudios sin necesidad de una evaluación completa. Debemos tener cuidado, dice Tweedale, porque «la exposición a dosis bajas de productos químicos es la norma. Pero eso es precisamente lo que las pruebas de la industria no examinan «.

En Canadá, menos del 1% son tenidos en cuenta
Los comentarios de Tweedale vienen a colación porque dos investigadores han acusado al gobierno canadiense de ignorar la mayoría de los estudios publicados revisados por pares en su reaprobación del glifosato.

La Agencia Reguladora del Manejo de Plagas (PMRA) del gobierno canadiense declaró:

«Una evaluación de la información científica disponible encontró que los productos que contienen glifosato no presentan riesgos preocupantes para la salud humana o el medio ambiente cuando se usan de acuerdo con las instrucciones de la etiqueta«.

Louise Vandelac, profesora de ciencias ambientales y sociología y Marie-Hélène Bacon, investigadora del grupo de investigación interdisciplinario GRETESS, ambos de la Universidad de Quebec en Montreal, realizaron su propio análisis de la literatura científica publicada para averiguar cuántos de los estudios fueron analizados por el PMRA para llegar a su decisión. Encontraron que la agencia consideró «menos del 1% de la abundante literatura científica sobre los efectos de salud y ambientales del glifosato y los herbicidas a base de glifosato (GBH), publicados desde principios de la década de 1970″ – una situación que ellos describen como «altamente problemática«.

Vandelac y Bacon argumentan que los estudios científicos considerados son antiguos y anticuados y que el documento de decisión

«esencialmente consiste en documentos confidenciales de 1970 a 1990 procedentes de la industria, que es el principal beneficiario económico de la decisión», factores que «ponen en tela de juicio el rigor científico y la independencia del enfoque«. Añaden que la decisión de aprobar el glifosato se tomó, por lo tanto,»sobre la base de 95 referencias presentadas por empresas que datan de hace más de 20,30 o 40 años… lo que, dada la rápida evolución de la investigación sobre el impacto sanitario de determinadas sustancias químicas y cócteles químicos, no se corresponde en absoluto con los requisitos científicos«.

Además, Vandelac y Bacon agregan que el proceso de regulación es inadecuado ya que considera principalmente el glifosato solo, aunque las formulaciones de herbicidas de glifosato que se venden y usan pueden ser hasta 1000 veces más tóxicas.

Sin embargo, Tweedale dice que vislumbra la luz al final del túnel. Afortunadamente, una revisión sistemática, un concepto tomado prestado de la medicina, desafía el sistema regulatorio de las sustancias químicas. Consiste en una evaluación exhaustiva y rigurosa de todos los datos disponibles, basada en criterios científicos objetivos.

Si este sistema se aplicara a los plaguicidas, sería mucho más difícil para la industria excluir los resultados de los estudios revisados por pares. “Y la salud pública y el medio ambiente serían los ganadores «.


———————————————————-

La ciénaga

Por Evaggelos Vallianatos, 8 de abril de 2017

huffingtonpost.com

Presencia de los carcinógenos del DDT en la sangre de blancos y no blancos en los Estados Unidos, 1968. Extraído de “Los plaguicidas y su relación con la salud ambiental”. Departamento de Salud, Educación y Bienestar. Washington, DC, 1969.

Supongamos que usted muestra preocupación por la salud pública y ambiental. Supongamos que accidentalmente entra en un enorme laboratorio situado en alguna área suburbana de los Estados Unidos. El que le recibe es un químico . Él le informa que el laboratorio ha estado probando todo tipo de productos químicos, entre ellos pesticidas y medicamentos para asegurarse de que estas sustancias químicas no provocan un daño ni en las personas ni el medio ambiente. Usted pregunta al que le ha recibido por el promotor de dicho laboratorio y le responde que fue un distinguido bioquímico de una importante universidad que atendió a las solicitudes del Gobierno sobre la seguridad de los productos químicos. Después, el que le recibe le deja solo, diciéndole que espere a otro científico que sabe más acerca del laboratorio.

Espera, pero nadie aparece. Así decide explorar por su cuenta. Entra en una gran sala en la que se puede observar la infraestructura del laboratorio: mesas en las que hay bisturíes, tubos de vidrio, productos químicos y equipos de operaciones para estudios de patología. Inmediatamente reacciona, deseando salir de aquella sala. Un enorme hedor llena el ambiente. Un sistema de rociado de agua está pulverizando agua sobre las jaulas con ratones, ratas y perros. Las ratas se encuentran en un charco: agua mezclada con excrementos de animales que cubren el suelo. Entonces, usted descubre que un técnico que sostiene un envase con gas adormecedor corre detrás de las ratas. Usted sale de la sala y vuelve a entrar en el espacio de recepción, donde el que le recibió con anterioridad está telefoneando a la policía diciendo que hay un intruso en el laboratorio, usted.

Esto podría ser el comienzo de una novela de ciencia ficción: locos que manejan un peligroso laboratorio financiado por el Gobierno y la Industria.

Pero no se trata de ciencia ficción, en absoluto. Ocurrió en una de las instalaciones de  Industrial Biotest, con sede en Northbrook, Illinois. La mayor parte de este sucio trabajo lo hizo sobre todo desde los años 1950 a los años 1970.

En 1953, Joseph Calandra, profesor de bioquímica de la Universidad de Northwestern, fundo IBT. Quería ser un hombre rico e influyente. El laboratorio se convirtió en un instrumento que le dio dinero y poder.

Calandra probó cientos de fármacos y pesticidas para las Empresas, Instituciones privadas y departamentos gubernamentales, tanto estatales como federales. Cuando los agentes federales entraron en IBT, en 1976, el laboratorio había probado alrededor del 40% de todos los pesticidas del país.

Pero resulta que todas esas pruebas de pesticidas y productos químicos realizadas en IBT fueron un fraude. El laboratorio tenía la apariencia de una instalación en las que realizaban estudios científicos. Pero en realidad era una ciénaga llena de inmundicias y corrupción. Nada que ver con el conocimiento científico. Los animales eran un pretexto. Los científicos, algo accesorio.

Los animales eran alimentados con el producto tóxico del que se realizaba la evaluación de riesgos. Sin embargo, no importaba lo que estos productos tóxicos produjeran en los animales. Los científicos que hacía tales pruebas simplemente destrozaban a los animales que desarrollaban tumores, cáncer y otras enfermedades. Luego los técnicos apañaban los estudios aportando datos.

Así fue como funcionó IBT. El patólogo que reveló el secreto fue Adrian Gross. En 1976, Gross hizo una inspección y descubrió que el gran laboratorio era una enorme fábrica de fraudes. Gross trabajó para la FDA estadounidense. En 1979, entró en la Agencia de Protección Ambiental de los Estados Unidos (EPA), donde también trabajé yo. Durante varios años Gross y yo fuimos buenos amigos y colegas. Hablamos mucho de IBT.

Gross no tenía dudas de que los gerentes de IBT eran unos criminales. Su único interés era el de escribir sofisticados informes sobre lo benignos que eran los productos químicos probados. Dedico un capítulo a la corrupción en IBT en mi libro “Primavera Tóxica”.

Esta historia de estudios fraudulentos explica la falta de fiabilidad de las pruebas realizadas en la evaluación de riesgos de los plaguicidas. Esta tradición de la ciénaga en la aprobación de los pesticidas continúa hoy en día.

La EPA clausuró en laboratorio IBT en 1983. La EPA también cerró otros varios laboratorios del tipo de IBT. Pero no que la EPA no clausuró fue el fraude que había detrás de IBT.

La fuente de corrupción es la propia Ley de plaguicidas, que los contaminadores redactaron. Esta ley permite a las empresas hacer ensayos de sus propios productos, lo cual fomenta el engaño para ocultar los riesgos. En tercer lugar, la Agroindustria obligó a la EPA a defender las regulaciones defendidas por la Industria. La EPA ha dado más importancia a la comercialización de los pesticidas que a la salud pública y ambiental.

Por ejemplo, Roundup, el herbicida más vendido de Monsanto, salió de la ciénaga de IBT. Esto es algo que no supe mientras trabajaba en la EPA. Me enteré de ello a través de una serie de documentos que han visto la luz porque se ha presentado una demanda contra Monsanto por el cáncer provocado por la exposición al glifosato.

El 17 de marzo de 2015, William F. Heydens, un científico de Monsanto, envió un correo electrónico a su colega Josh Monken, en el que decía que Roundup tenía bajos niveles de formadehídos carcinógenos y compuestos carcinógenos N-nitrosos. Además, Heydens dijo que

muchos estudios toxicológicos sobre el glifosato se habían realizado en un laboratorio (IBT-Industrial Biotest) en el que la FDA y la EPA habían descubierto la utilización de datos fraudulentos durante la década de 1970”.

Este hecho por sí solo, que muchos estudios encargados por el Gobierno para aprobar el glifosato procedieran de IBT, es suficiente motivo como para prohibir el glifosato.

Sin embargo, Monsanto dispone de unos mecanismos muy sofisticados de Ciencia y Poder. La Empresa no ahorra dinero en compara la influencia de políticos de una u otra ideología. Su personal escribe artículos fantasma para aquellos científicos dispuestos a demostrar que el glifosato no es carcinógeno.

Monsanto ha ganado mucho dinero con el glifosato, entrando en una defensa paranoica e inmoral del glifosato. Sin embargo, a veces la lucidez prevalece y la verdad sale a la luz.

Eso sucedió el 22 de noviembre de 2003. En un correo electrónico a un colega, una toxicóloga de Monsanto, Donna R. Farmer, dijo:

No se puede decir que Roundup no sea carcinógeno”.

Tiene razón. Roundup es carcinógeno. Incluye glifosato, carcinógenos como el formaldehído y otros productos químicos, algunos de los cuales pueden ser incluso más tóxicos que el glifosato probado por IBT. La ley de plaguicidas clasifica a estos productos tóxicos como “inertes”.

Sequemos esa ciénaga de corrupción. Basta de engaños, encubrimientos y colusiones.

Los documentos publicados sobre Monsanto y el Gobierno complementan un cuadro que algunos de nosotros hemos relacionado con la corrupción que existe en torno al glifosato, Roundup y otros pesticidas de este negocio.

————————————————-

 

"Poison Papers”: Una reunión secreta de alto nivel en el Hotel Howard Johnson

Por Rebecak Wilce

independentsciencenews.org

Los análisis químicos independientes pueden colocarse una medalla: la gente puede sentirse segura de que los productos químicos a los que están expuestos diariamente estén certificados por técnicos de bata blanca inmaculada, que realizan cuidadosos estudios científicos, incluso con animales colocados en jaulas en fila.

Pero una investigación federal que se conoció durante un juicio terminó en una condena a principios de la década de 1980: el Laboratorio Industrial Bio-Test (IBT), el mayor laboratorio de los Estados Unidos, realizó un ensayo con ratones que se ahogaban en sus comederos con bastante frecuencia. Los animales muertos se descomponían tan rápidamente que sus cuerpos se licuaban y dejaban un charco de color púrpura en la bandeja que cubría el fondo de la jaula. IBT incluso inventó un acrónimo, “TBD/TDA” , para dar cuenta de ello en sus datos de seguridad, que más tarde se supo significaba “en avanzado estado de descomposición”.

Pero sólo se trata de uno de los muchos problemas descubiertos en IBT, que llevó a cabo entre el 35 al 40% de todas las evaluaciones toxicológicas realizadas en los Estados Unidos, incluyendo los productos regulados por la FDA y plaguicidas y herbicidas regulados por la EPA. Científicos de la EPA fueron los primeros en detectar el fraude y las malas prácticas de IBT, informando de esta situación en las audiencias del Senado a finales de los años 1970. Poco después, la EPA se vio obligada a revisar los datos y calculó que cerca del 80% de los datos que proporcionaban para el registro de sustancias químicas procedentes de IBT o no existían, eran falsos o no válidos.

El escándalo de IBT provocó una enorme crisis en la EPA. Al saber que casi todos los ensayos de IBT que habían examinado eras defectuosos y presuntamente falsos, eso podía traer como consecuencia la revocación de todos y cada uno de los productos químicos aprobados en base a los datos aportados por IBT. Esta forma de actuar habría estado plenamente justificada desde el punto de vista científico. Pero habría tenido unos efectos desastrosos sobre la Industria Química, la confianza del público y en la recién creada EPA.

Lo que la EPA hizo en su lugar se sabe por la transcripción de una reunión que tuvo lugar en el Hotel Howard Johnson Motor Inn, en Arlington, Virginia, el 3 de octubre de 1978. A esta reunión secreta acudieron altos cargos de la EPA, de la Industria Química, y tenía como intención resolver el problema de IBT.

Esta transcripción forma parte de los más de 20.000 documentos, con un peso de tres toneladas, que acaba de ser publicado por Proyecto de Recursos de Biociencia y el Centro de Medios y Democracia (CMD), en el sitio web de “Poison Papers”. La mayor parte de los Poison Papers fueron recopilados por la autora y activista Carol Van Strum, que archivó los documentos obtenidos en las numerosas demandas de interés público y solicitudes de acceso a la información para investigar la contaminación química y luego digitalizados por el periodista Peter von Stackelberg. La historia de Van Strum viene recogida esta semana en The Intercept.

Una conversación sobre colusión

Los “Poison Papers” representan un vasto tesoro documental y de correspondencia de la Industria Química y de las Agencias de Regulación, documentos que se remontan a los años 1920. Los papeles revelan, con las mismas palabras incriminatorias utilizadas por los participantes, un universo plagado de engaños, que rodea a muchos pesticidas y productos químicos sintéticos.

La transcripción de la reunión celebrada en el Howard Johnson es un ejemplo de los documentos atesorados. Nos permite “escuchar” la conversación que tuvo lugar hace décadas, pero que todavía tiene su importancia hoy en día.

La transcripción es un

ejemplo, como otros muchos de estos documentos, de una historia de fracasos en la regulación de productos cotidianos y la complicidad de la Agencia, una historia poco conocida de la EPA y su permanente colusión con la Industria Química y cuyo resultado es un fracaso del sistema para proteger a las personas de los peligros de los productos químicos”, dice el Dr. Jonathan Lathan, Director del Proyecto de Recursos de Biocencia.

No hay ni un solo estudio de IBT que  esté libre de errores

La reunión en el Howard Johnson fue convocada para discutir el escándalo de IBT y planear la manera de salir del atolladero. No asistieron ni grupos de consumidores, ni grupos ecologistas u otras personas a ese reunión en Arlington, bajo el alegre tejado naranja del Howard Johnson, cuando se discutió el asunto de los animales muertos, y los datos falsos y amañados.

Al inicio de la reunión, Fred Arnold, Jefe Adjunto de Análisis Regulatorios y Auditorías del Laboratorio de la EPA, aseguró a los representantes de las Empresas Químicas que no se retirarían del mercado los productos químicos implicados, a pesar de que los estudios sobre los que se habían basado las aprobaciones habían resultado ser un fraude:

Determinamos que no está en el ánimo de la EPA, ni es de interés público o es de interés para los solicitantes de registro [para sustituir todos los datos de IBT], porque muchos de los estudios realizados en IBT se realizaron de manera satisfactoria”, dijo Arnold (Página 6).

Sin embargo, la afirmación de Arnold de que algunos estudios si son “satisfactorios” se vio contradicha varias veces en dicha reunión. Por ejemplo, más tarde se dijo que ninguno de la estudios de IBT estaba exento de errores (página 16). El Dr. Arthur Pallotta, Consultor de la División de Revisión Especial de Plaguicidas de la Oficina de Programa de Plaguicidas de la EPA, declaró que:

Había pocos estudios que no presentaran discrepancias, errores y omisiones” (página 27).

En otra parte de la transcripción, la EPA aceptó que más del 80% de los resultados de los ensayos realizados por IBT no eran válidos (página 123).

Pero la afirmación de Arnold de que no era de interés de nadie el exigir nuevos estudios tenía unas sorprendentes consecuencias: servía de base para no retirar del mercado ningún producto químico, tranquilizando a la gente, y dando por resuelto el lío armado por IBT. En 1983, la EPA determinó que más del 90% de los estudios realizados por IBT tenían serios problemas de invalidación.

Una operación de salvamento: ignorando los controles científicos

Al principio de la reunión, la EPA presentó una lista con los errores detectados en los ensayos realizados por IBT, los cuales planeaba ignorar para que la tarea de dar por válidos los estudios de IBT fuese manejable.

Planeaba ignorar aquellos animales que parecían haber desaparecido o que de repente se habían agregado a los estudios. No se realizó ninguna estadística, ni tampoco lo hace ahora, para compensar tales irregularidades; esto fue pasado por alto por la EPA.

Igualmente, muchos estudios de IBT parecían ser mucho más cortos de lo que requerían los protocolos. Como explicó David Clegg, de la Dirección de Protección de la Salud de Canadá, presente en la reunión:

Hemos encontrado algo en los estudios a 90 días. Supongamos, por ejemplo, que un estudio debía comenzar el 1 de junio, la factura para el envío de material de ensayo se firma el 9 de junio, y las hojas de preparación de las dietas se fijan el 12 de junio. En otras palabras, cuando estuvo preparada la dieta, de acuerdo con los datos en bruto, el estudio ha tardado en ponerse en marcha 12 días, para un estudio de 90 días de duración. Esto no invalida necesariamente el estudio, por supuesto. Aún así, se puede obtener información detallada, pero la base misma del estudio, sobre la que se está trabajando, debe modificarse al tratarse de un estudio de 88 días o de la longitud que sea y se deben extraer las conclusiones pertinentes” (páginas 34-35).

La EPA también señaló que IBT tenía muchos problemas con los grupos de control. Trabajaba con un sistema conocido como “controles comunes”. Estos grupos de control a menudo se encontraban en cuartos diferentes o colocados en otros sitios durante varias horas, a veces con ratas de otros lotes. La EPA propuso juntar todos estos experimentos y, por lo tanto, hacer uso de estos grupos de control. Clegg habló en tono de disculpa:

No puedo decir que me sienta contento, por razones científicas, pero estamos tratando de efectuar una operación de salvamento y poder llegar a algo que nos dé una base razonable para que los grupos de control puedan servir para una serie de estudios, entonces, cuando no dispongamos de grupos de control, podamos utilizar esos otros” (página 41).

La EPA aprueba estudios sin firmar

Arnold también admitió en la reunión que parecía existir un fraude histórico en la EPA. Al revisar los datos originales que IBT les envió, los fabricantes podrían descubrir que en el pasado la EPA parecía haber examinado tejidos y determinado que no había encontrado “hallazgos significativos”, cuando “la verdad es que los tejidos y los órganos nunca fueron examinados” (Arnold, página 102).

En el momento en el que la FDA y la EPA mostraron un gran interés en el laboratorio de ensayos, la IBT había determinado una “política de no firmar” sus propios informes, de acuerdo con la transcripción, indicando con ello que el personal no estaba dispuesto a apoyar los resultados.

Como dijo Fred Arnold a los asistentes:

Un cierto número de científicos, que pudieron haber participado en las primeras fases de un estudio, ya no están allí y nadie puede afirmar categóricamente que todo lo reflejado en el informe se pueda confirmar con los datos en bruto” (página 63-64).

Arnold admitió que la EPA a veces aceptaba estudios sin firmar. Para resolver dicho problema la solución era aceptar tales estudios sin firmar para no “crear ahora un doble rasero” (página 64), aceptando estas prácticas sin precedentes de la IBT como propias.

Más tarde se supo, a través de procedimientos judiciales, que IBT también falsificó firmas.

Lo que queda del Howard Johnson

Tres responsables de IBT fueron a la cárcel, cerrándose así un capítulo sobre un enorme fraude científico, pero el libro nunca se cerró.

Como revela la transcripción de la reunión en el Howard Johnson, la mayoría de los estudios de IBT nunca fueron rehechos, y son los que mantienen el actual sistema de regulación de los productos químicos en los Estados Unidos”, dijo Latham.

La autora Carol Van Strum comentó la importancia de la transcripción:

La transcripción de la reunión de 1978 celebrada en el Howard Johnson, una reunión crucial de la EPA, en la que se juntaron responsables de Canadá y de la Industria de los Plaguicidas, sirvió para dar una respuesta al enorme fraude en las evaluaciones de seguridad en la aprobación de pesticidas. En la reunión, Fred T. Arnold, Jefe de Análisis Regulatorio y Auditorías de Laboratorio de la EPA, aseguró a la Industria que el descubrimiento por parte de la EPA de las irregularidades en las evaluaciones de seguridad, inválidas o inexistentes, no interfería en la capacidad de comercialización de herbicidas y plagucidas. Este documento fue el eje de mi libro “A Bitter Fog: Herbicides and Human Rights”, documentando la aceptación por parte de Agencias gubernamentales de estudios falsos realizados por la Industria, mientras descarta informes de daños en los seres humanos, las muertes, los abortos involuntarios, los defectos de nacimiento y otros efectos de la exposición a pesticidas”.

El sitio web de Poison Papers y el archivado de documentos son un proyecto de Bioscience Resource Project, Ithaca, Nueva York, y del Centro de Medios y Democracia, Madison, Wisconsin. Puede consultar los documentos de Poison Papers en PoisonPapers.org. Puede leer el manuscrito de la reunión en el Howard Johnson aquí.

————————————————————————-

Consecuencias sociales de las anomalías científicas: el cientifismo

Alfredo Caro-Maldonado

Ciencia mundana

En este breve artículo me limitaré a esbozar algunas anomalías que existen en la ciencia contemporánea y sus peligros para la sociedad. Podrán profundizar sobre el tema en mi blog.

El método científico es una de las formas que ha tenido el ser humano de crear conocimiento evitando sesgos y prejuicios. Los grandes avances que la ciencia y la tecnología han supuesto para buena parte de la humanidad son indiscutibles. Necesitamos seguir entendiendo los mecanismos y las reglas de la naturaleza, y seguir cultivando y universalizando la ciencia desde la razón.

Vivimos una época paradójica en cuanto a la relación ciencia y sociedad. Una parte de la sociedad reniega de los conocimientos adquiridos por el sistema científico mientras que otra tiene a la tecnociencia como una institución prácticamente omnisciente. Sin embargo la ciencia y los que la veneran sufren una serie de anomalías que enumeraré a continuación.

El reduccionismo genético como paradigma del sesgo reduccionista.

En una entrevista a Carlos López Otín, este cae en numerosos prejuicios reduccionistas, por ejemplo : “…No sabemos muchos detalles de cómo se regula el universo celular, dónde se halla el cuadro de mandos… para que determinados genes se activen o bloqueen. Quien nos organiza toda esta actividad es el genoma.” Esta retórica divulgativa esconde una forma de pensar. Cuando se explica el funcionamiento de algo tan complejo con esa metáfora reduccionista y técnica se está imponiendo un relato al lector. La teoría de que en el genoma está escrito el destino del organismo que lo sustenta es una bonita metáfora con tintes bíblicos. La realidad es que los elementos que hacen realidad la vida son muchísimo más que una secuencia de cuatro letras. Y es que en el ADN está la idea de Dios implícita y eso puede ser muy atractivo para el OPUS, que controla muchos de los departamentos de biología del país, pero no explica ni de lejos la autorganización de la naturaleza.

Y este reduccionismo «biologicista» no es infrecuente, ni inocente ni inocuo.

La idealización del sistema científico.

Lo que los científicos preguntamos, las hipótesis que formulamos y las conclusiones que sacamos están históricamente condicionadas. La ciencia tiene que ser lo más objetiva posible, pero interpretar que ciencia es sinónimo de objetividad oculta las verdaderas relaciones sociales de los científicos con la sociedad y entre sí.

La revisión por pares es hoy día uno de los principales obstáculos en el avance del conocimiento científico. Sin embargo, para los cientifistas, es la realización misma del sueño americano. Pero en realidad es un coladero de resultados no reproducibles y fraude. Hay saturación y sesgo. La ciencia tiene un método que permite depurar la estafa, el problema es que el método está inutilizado por los mal llamados “sistemas de evaluación”, basados en publicar mucho y rápido.

Explotación y corrupción.

El 90% de los científicos trabajan más de 40 horas semanales, el 38% más de 60. Miles de investigadores compiten internacionalmente por una plaza o financiación. Escándalos por fraude saltan por todas partes. Cientos de artículos se retractan. El 50% de los ensayos clínicos no se hacen públicos. El 80% de los resultados en biomedicina no son reproducibles. En nuestro país los casos de Sonia Melo o Susana González claman al cielo. Parece que la corrupción en ciencia se paga, pero con premios y dinero. El supervisor de tesis de Melo durante el fraude, Manel Esteller, recibió el Premio nacional de investigación de Cataluña y la medalla de honor del Parlament de Cataluña. Es corrupción porque es malversación de fondos públicos.

Problemas políticos requieren soluciones políticas.

Cientifismo es la “doctrina según la cual los métodos científicos deben extenderse a todos los dominios de la vida intelectual y moral sin excepción”. Yo ampliaría esta definición. Cambia “método científico” por toda teoría o cachivache que surja de la producción del sistema científico. Por “científico” tenemos que entender también técnico, por ejemplo transgénicos o energía nuclear. Por “vida intelectual y moral” debemos entender TODOS los ámbitos de nuestra vida, también la filosófica y la salud en todas sus vertientes. “Sin excepción” quiere decir que al oponerte a eso serás tildado de magufo.

Para un cientifista la ciencia es la única posibilidad de conocimiento y de desarrollo. Todo lo que venga del “mundillo” podrá ser utilizado para justificar medidas políticas, económicas, sociales o ambientales. Porque como en la ciencia está la verdad, también estará la salvación.

Cuando los científicos se preguntan cómo parar el calentamiento global mediante la tecnología, tipo secuestrar CO2, parece que no son conscientes de que un prejuicio les impide tener acceso a un abanico más amplio de soluciones: el crecimiento.

No podemos confiar en que los científicos no tengan necesariamente una agenda. Paradigmático es JM Mulet. Su estilo, arrogante pero simpático, ni de izquierdas ni de derechas, triunfa. En una de sus periódicas campañas contra Greenpeace, cuando la famosa carta de los Nobeles, publicó un meme con la cara de un niño afectado de ceguera con el texto: “Científicos independientes han demostrado que el arroz dorado pudo haber salvado mi visión… y también puede salvar mi vida. ¿Lo tenéis claro Greenpeace?”. Es un disparate defender que la hambruna causada por la mala distribución se solucione con alimentos tecnológicos de alto valor añadido como el arroz dorado, llamado así porque es transgénico y expresa más cantidad de vitamina A. Además de que probablemente no funcione. Es un insulto a la inteligencia el querer hacernos creer que la tecnología resolverá problemas estructurales como el hambre. Y como él es un inteligente profesor universitario entonces lo que pasa es que por alguna razón quiere vendernos esa tecnología utilizando niños negros.

Otra prueba de que a menudo hay una agenda es el hecho de que la mayoría de los estudios a favor de los transgénicos tienen conflictos de intereses evidentes.

Los batallones cientifistas son las asociaciones de escépticos, pero son “escépticos acríticos”, porque se dedican a atacar y desmontar las pseudociencias únicamente cuando no vienen del sistema científico.

Así, de mano de los cientifistas, la tecnociencia, unida al dogma del crecimiento continuo, toma las riendas de nuestro destino. Las decisiones importantes las tienen que tomar los “expertos” no ya las mayorías. Es nuestra obligación como científicos y divulgadores ser radicalmente críticos y extremadamente empáticos. Hay que abandonar el doble rasero y criticar por igual las prácticas alejadas de la razón y el método vengan de donde vengan, porque más ciencia es necesaria.

Este artículo fue publicado originalmente en catalán en La directa.

http://rebelion.org/noticia.php?id=227487

—————————————————-

Demanda contra Monsanto y unos estudios científicos hechos a medida de la Industria Química

Por Paul D. Thacker, 28 de marzo de 2017

Pacific Standar

(Imagen: Mike Mozart/Flickr)

En la reciente demanda contra Monsanto se observan con claridad las estrategias de la Industria para manipular la investigación científica en su propio beneficio. En la demanda presentada por la posible carcinogenicidad del herbicida Roundup, los abogados de los demandantes acusan a Monsanto de redactar un estudio científico que señalaba que el ingrediente activo de Roundup, el glifosato, no supone ningún daño para la salud. El glifosato es el herbicida más utilizado en todo el mundo y resulta fundamental para los cultivos modificados genéticamente, tales como el maíz y la soja, que son resistentes a este herbicida.

Los escritores fantasma siguen siendo algo presente en algunas áreas de la investigación académica. En el año 2010, participé en la redacción de un informe para el Senado sobre este asunto: los estudios redactados por las Corporaciones y luego publicados en revistas científicas firmados por investigadores del mundo académico ha sido algo muy utilizado para influir en las decisiones de los Gobiernos, en las demandas judiciales, e incluso en las prácticas médicas. Muchas Universidades se han visto envueltas en escándalos relacionados con los escritores fantasma, como la Universidad de Harvard, la Universidad de Brown, la Universidad de Stanford y la Universidad de Emory.

El estudio que actualmente se encuentra bajo verificación apareció en el año 2000 en la revista Regulatory Toxicology and Pharmacology, la revista de la Sociedad Internacional de Regulación Toxicológica y Farmacológica. Las acusaciones podrían parecer sin fundamento, como señala la revista Science, que dice que los responsables de una Universidad han investigado el caso y rechazado esas acusaciones.

Monsanto también niega enérgicamente las acusaciones de escritura fantasma y defiende la honestidad del estudio en su blog: El estudio fue sometido a un riguroso proceso de revisión por pares por parte de la revista antes de su publicación”.

Pero aquí el término “riguroso” no parece muy acertado. De hecho, si echamos un vistazo a la historia de la revista se nos ofrece un panorama en el que la Industria presenta unos estudios aparentemente científicos pero que carecen de rigor académico.

Regulatory Toxicology and Pharmacology es una revista que publica Ciencia mercenaria, producida por los contaminadores y productores de productos químicos tóxicos para crear incertidumbre y dudas sobre la Ciencia que subyace en las decisiones relacionadas con la salud pública y la protección ambiental”, dice David Michaels, profesor de salud ambiental y ocupacional en la Escuela Universitaria de Salud Pública George Washington. (Michael regresó a su antiguo puesto después de desempeñar un cargo en la Administración de Seguridad y Salud Ocupacional de los Estados Unidos).

Regulatory Toxicology and Pharmacology

es una revista que publica Ciencia mercenaria,

producida por los contaminadores

y productores de productos químicos tóxicos

para crear incertidumbre y dudas

sobre la Ciencia que subyace en las decisiones relacionadas

con la salud pública y la protección ambiental”.

Es una historia que viene de muy atrás. En el año 2002, varios científicos y activistas enviaron una carta a Elsevier denunciando que la revista carecía de transparencia en su política de conflictos de interés y que no presentaba una independencia editorial al margen de las Corporaciones patrocinadoras. Un par de años más tarde, comencé a estudiar y repasar los registros de la Sociedad Internacional de Regulación Toxicológica y Farmacológica (ISRTP).

El año anterior al que la revista publicara el estudio del herbicida Roundup, la sociedad celebró una reunión en junio de 1999 en la sede la firma de abogados Keller and Heckman, en Washington DC, la firma de abogados más destacada en la defensa de la Industria Química. En un reciente litigio, por ejemplo, Keller and Heckman representaron a la Industria del Vinilo, una demanda para intentar revertir las regulaciones establecidas en el año 2012 por la Agencia de Protección Ambiental (EPA), que limitan los vertidos tóxicos durante la producción del PVC. Keller and Heckman también aparece como la firma de abogados más destacada en la defensa de la Industria del Tabaco y el cigarrillo electrónico. En el acta de la reunión se recoge que un miembro de Keller and Heckman re reunió con representantes de varias asociaciones comerciales de la Industria Química. Las actas de febrero de 2002 también registran la reunión que tiene lugar en la oficina de Keller and Heckman en Washington DC, y se señala que las futuras reuniones también se llevarán a cabo en la sede de la firma de abogados.

Es algo inusual ver a representantes de la revista Regulatory Toxicology reunirse en una oficina donde se trata de hacer valer la ley”, dice el Dr. Lynn Goldman, del Instituto Milken de la Escuela de Salud Pública George Washington, uno de los firmantes de la carta de 2002

Realizar las reuniones en un bufete de abogados que defiende a las Corporaciones es algo inapropiado, a menos que no se trate de una sociedad científica sino de un apoyo para la publicación de estudios pseudocientíficos en favor de sus clientes, las Corporaciones, y los donantes de la revista”, dice Jennfier Sass, especializada en política de productos químicos en el Consejo de Defensa de Recursos Naturales y firmante también de la carta del año 2002.

Después de revisar el estudio sobre el herbicida Roundup publicado en 2000, Sass dice que no parece ser lo que generalmente se conoce como “escritura fantasma”. La sección de reconocimiento del Estudio, que se recoge en la página de pagos de la revista, se señala claramente la participación de Monsanto en la elaboración del estudio*.

Esta gente no sería capaz de presentar sus estudios y ampliar la literatura científica, enturbiando las aguas y creando una falsa sensación de controversia, si no hubiera revistas como Regulatory Toxicology and Pharmacology”.

Examinando el Consejo de Redacción de la revista, Sheldon Krimsky, profesor de la Universidad de Tufts, especializado en el estudio de los conflictos de interés y la influencia de las Corporaciones en la Ciencia, observa que los asesores de la Industria desacreditan la cabecera de la revista. De hecho, el editor de la revista es Gio Gori, ex consultor para la Industria del Tabaco. En 1998, Gori conjuntamente con Steven J. Milloy, de JunkScience.com, firmaron una carta que apareció en Science, y en la que se criticaba las alusiones a los consultores de la Industria del Tabaco. Más tarde descubrí a Milloy en New Republic por estar en la nómina de la Industria del Tabaco mientras que escribía artículos para FoxNews.com, donde menospreciaba la estudios científicos sobre el tabaco como de segunda mano. Y en 2007, Gori publicó un editorial en el Washington Post, afirmando la falsedad de los estudios científicos sobre el tabaco.

El trabajo de Gori para la Industria del Tabaco, dice Krimsky, “sitúa su credibilidad muy abajo”.

Otros polémicos miembros del consejo editorial de la revista son Michael L. Dourson y Dennis J. Paustenbach. Dourson es el Presidente de TERA, una firma de consultoría científica que fue objeto de investigación el 2014 por Inside Climate News y el Centro de Integridad Pública, destacando sus lazos con la Industria. Los documentos que se hicieron públicos durante el juicio destacan el trabajo de Dourson para la Industria.

Cuando se le preguntó sobre su relación con la Industria del Tabaco, Doruson dijo:

Jesús salió acompañado de prostitutas y recaudadores de impuestos. Comió con ellos. Somos un grupo independiente que trata de hacer las cosas lo mejor que puede en el ámbito científico. ¿Por qué deberíamos rechazar a aquellas personas que necesitan ayuda”.

Jesús salió acompañado de prostitutas

y recaudadores de impuestos. Comió con ellos.

Somos un grupo independiente que trata de hacer

las cosas lo mejor que puede en el ámbito científico.

¿Por qué deberíamos rechazar a aquellas

personas que necesitan ayuda”.

En el año 2005, The Wall Street Journal publicó en la primera página unas informaciones que cuestionaban el papel de Paustenbach y su empresa ChemRisk en un caso que se convirtió en la base de la película Erin Brockovich. Según la revista, ChemRisk fue contratada para volver a analizar los datos de un estudio relacionado con aguas contaminadas por cromo y su relación con daños en la salud pública. El nuevo análisis de ChemRisk se publicó en un nuevo estudio firmado por dos investigadores chinos, sin mencionar la participación de ChemRisk, y fue aceptado posteriormente para su consideración el litigios y la aprobación de normas de regulación. Después de la publicación en la revista, se produjo la retractación del mismo, y los grupos ecologistas intentaron una reprobación por parte de la Sociedad de Toxicología.

Siete años más tarde, el Chicago Tribune publicó un artículo en el que revisaba la trayectoria de investigación de Paustenbach sobre los retardantes de llama para la Industria Química, y el Centro de Integridad Pública publicó una investigación el año pasado sobre el trabajo de Paustenbach para Ford Motor Company, para minimizar los peligros del amianto en las pastillas de frenos de sus coches.

Se trata de una revista deshonesta que quiere parecer una revista”, dice Krimsky.

El problema no afecta solamente a Monsanto, y no sólo a esta revista. Las Corporaciones compran con asiduidad a investigadores del mundo académico, para rehacer los temas que preocupan a la Industria y recomponer un canon científico hecho a su medida. Las Universidades hacen poco para detener estas prácticas, mientras que las revistas científicas, incluso las de mayor prestigio, se convierte a menudo en cómplices. La exposición de todo esto a la luz pública sigue siendo la medicina, y única, más eficaz.

————————————————