Entries from marzo 2018 ↓

El problema de la colapsología

El colapso de la civilización industrial como una liberación

Por Nicolas Casaux, 28 de marzo de 2018

legrandsoir.info

“La civilización industrial se enfrenta a un calentamiento climático
y a una sexta extinción en masa…”.

Calificar la sociedad de termoindustrial permite asimismo desdeñar todo lo que ya sucede en materia de coerciones y reclutamientos, y que no contribuye, o no mucho, al agotamiento de los recursos energéticos. Con mucho gusto se pasa esto por alto, máxime cuando uno mismo es cómplice, en la educación pública o en otro sitio. Atribuir todos nuestros males a la naturaleza “termoindustrial” de esta sociedad es por tanto bastante cómodo, al mismo tiempo que simplista, para saciar el apetito crítico de mentecatos y cretinos arribistas, últimos residuos del ecologismo y del “movimiento asociativo”,que constituyen las bases del decrecimiento […]”.René Riesel y Jaime Semprun, “Catastrofismo, administración del desastre y sumisión sostenible”, Pepitas de Calabaza, marzo de 2011.

France Culture, Le Monde, Le Point, Les Echos, Libération, Mediapart, LCI, L’Obs, son algunos de los principales medios de comunicación que han decidido promover la tendencia relativamente reciente de la «colapsología».

«Colapsología» – un neologismo derivado del latín lapsus que significa «caída», inventado («con cierta burla de sí mismos») por los investigadores Pablo Servigne y Raphaël Stevens en su libro «Cómo puede derrumbarse todo, un pequeño manual sobre colapsología para las generaciones actuales» (Seuil) – significa, siempre según ellos ..: «El ejercicio transdisciplinario de estudiar el colapso de nuestra civilización industrial, y lo que podría seguir, basado en los dos modos cognitivos de la razón y la intuición, y en el trabajo científico reconocido. »

Detrás de esta definición un tanto nebulosa, la colapsología se caracteriza – en las publicaciones asociadas a ella, como el libro de Pablo Servigne y Raphaël Stevens, las conferencias que organizan o que otras personas proponen sobre este tema – por perspectivas y análisis a veces contradictorios, o demasiado limitados.

En conjunto, corresponde a una reflexión que admite la inevitabilidad del colapso de la civilización «termoindustrial», que la considera como un drama, como una «catástrofe» (Pablo Servigne y Raphaël Stevens en su citado libro), y que implica «lamentarse por nuestra civilización industrial» (ibid.). La constatación de que la civilización industrial no es viable, que está condenada a la autodestrucción, constituye, a sus ojos, «un enorme choque que desata pesadillas» (ibíd.), «malas noticias» (ibíd.). Incluso citan a Jean-Pierre Dupuy a este respecto: «Debido a que el desastre es un destino nefasto, debemos decir que no lo queremos y mantener los ojos fijos en él, sin perderlo nunca de vista».

Pero antes de seguir examinando este aspecto del colapso, un recordatorio: más allá del famoso Informe Meadows de 1972 sobre «los límites del crecimiento», muchas corrientes colectivas e individuales se dieron cuenta y denunciaron la insostenibilidad de la civilización industrial hace mucho tiempo, y muy a menudo sin haber necesitado, para ello, una avalancha de » gráficos «, » datos » y » estudios científicos «. El sentido común era suficiente.

Un ejemplo es Aldous Huxley en un ensayo de 1928 titulado «Progress : How the Achievements of Civilization Will Eventually Bankrupt the Entire World» (Progreso: Cómo los logros de la civilización acabarán por arruinar todo el mundo), publicado en un antiguo número de la revista Vanity Fair, para el que escribía en ese momento:

«Es probable que la colosal expansión material de los últimos años sea un fenómeno temporal y transitorio. Somos ricos porque vivimos en nuestro capital. El carbón, el petróleo y los fosfatos que utilizamos tan intensamente nunca serán reemplazados. Cuando se agoten las reservas, los hombres tendrán que prescindir de ellos… Se sentirá como un desastre sin precedentes».

En Francia, anarquistas naturalistas de finales del siglo XIX, muchos ecologistas del siglo XX (podemos pensar en los del periódico La Gueule Ouverte), situacionistas, los autores de la Enciclopedia de las Nuisances, y muchos otros (Bernard Charbonneau, Jacques Ellul, Ivan Illich, etc.), muchos nos han advertido desde hace tiempo de la insostenibilidad de la civilización industrial.

Así lo escribió Pierre Fournier en el periódico Hara-Kiri Hebdo del 28 de abril de 1969:

«Mientras nos divierten con las guerras y las revoluciones que se suceden repitiendo siempre lo mismo, el hombre, mediante una explotación tecnológica incontrolada, hace inhabitable la tierra, no sólo para sí mismo, sino para todas las formas de vida superiores. El paraíso de los campos de concentración que se está gestando y que estos malditos tecnócratas nos prometen nunca verá la luz del día porque su ignorancia y desprecio por las contingencias biológicas lo cortarán de raíz».

Durante su estancia en los Estados Unidos, el historiador y sociólogo estadounidense Lewis Mumford escribió, en un artículo publicado en 1972:

«A pesar de todas sus múltiples invenciones, la economía tecnocrática actual carece de las dimensiones necesarias para una economía de la vida, y ésta es una de las razones por las que aparecen signos alarmantes de su colapso».

Y añadió que «es obvio que esta sociedad de la abundancia está condenada a perecer asfixiada bajo su despilfarro […]«.

Toda la obra literaria del ecologista estadounidense Derrick Jensen (y de los ecologistas de las corrientes antiindustriales y anticiviles de Francia, Estados Unidos y otros países), desde su primer libro publicado en 1995, se basa en la idea de que la civilización industrial es fundamentalmente destructiva y que, en última instancia, está destinada a la autodestrucción.

Todo esto para decir que este logro no es nuevo, que muchos individuos han tratado de exponerlo y han estado tratando de exponerlo durante mucho tiempo. Sólo que la forma en que lo hicieron y cómo lo hacen no es admisible desde el punto de vista mediático (políticamente correcto), contrariamente a la forma en que los colapsólogos discuten este tema, como veremos.

Repasemos la colapsología otra vez. Una de las razones por las que los principales medios de comunicación se permiten promoverla es que consideran el colapso de la civilización industrial como una «catástrofe», un drama, una noticia terrible. Desde la perspectiva de la cultura dominante, que está destruyendo biomas y especies en todo el mundo para satisfacer su frenesí de crecimiento y progreso, esta perspectiva tiene sentido. Pero para todos aquellos que han superado la alienación que impone, para los pueblos indígenas de todo el mundo, amenazados de destrucción (y no de extinción) como todas las especies vivientes, para los ríos, los salmones, los osos, el lince, los lobos, el bisonte, los bosques, los corales, etc., la catástrofe es la civilización industrial, y su colapso es el final de un desastre destructivo que ha abrumado al planeta durante demasiado tiempo.

Considerar el colapso de la civilización industrial como una catástrofe es perpetuar el paradigma destructivo que la precipita. Si la cultura dominante, la civilización industrial, se dirige hacia el colapso, si destruye los ecosistemas de todo el mundo, es porque no considera el mundo natural y sus equilibrios y dinámicas como primordiales. Por el contrario, lo que considera esencial es a sí mismo, su propio funcionamiento, su crecimiento, su desarrollo, sus industrias, etc.

Es precisamente porque la civilización industrial es profunda y fundamentalmente narcisista, por lo que sólo se preocupa de sí misma, por lo que es empujada a destruir todas las demás (otras especies y culturas), todo lo que no es ella.

Así, considerar el colapso de la civilización industrial como una catástrofe es perpetuar el paradigma destructivo que la precipita, es perpetuar el narcisismo que está en el corazón de sus impulsos destructivos.

El colapso de la civilización industrial es una solución, no un problema. La salud de la biosfera es lo más importante. Más allá del aspecto de empatía elemental que debería empujarnos a preocuparnos por los demás, es también una realidad ecológica elemental. No podemos vivir sin una biosfera sana.

Sin embargo, junto a esta gran tendencia a percibir el colapso como una catástrofe, Pablo Servigne y Raphaël Stevens nos recuerdan en su libro que:

«En un texto publicado en diciembre de 2013, el cocreador del concepto de permacultura, David Holmgren, más pesimista que nunca, se preocupó por los recientes descubrimientos sobre las consecuencias del calentamiento global. Según él, la única manera de evitar daños demasiado graves a la biosfera sería ahora provocar un rápido y radical colapso del sistema económico mundial.

La propuesta ha generado una gran controversia entre los colapsólogos de todo el mundo, que está lejos de terminar…»

David Holmgren parece tener los pies en la tierra.

El principal problema de la colapsología es, por lo tanto, el narcisismo que perpetúa (el colapso como catástrofe y no la civilización industrial como catástrofe).

Este narcisismo también se observa en las preguntas que a menudo hacen los colapsólogos sobre el colapso:

«¿Cómo vives…?» (Pablo Servigne y Raphaël Stevens)

«¿Cómo vivir con todas estas tristes noticias sin hundirse o estar deprimido?» (Clément Montfort en un post publicado en Reporterre (1)

«¿Qué nos espera concretamente? ¿Cómo prepararse para ello?» (ibíd.)

Muchas de sus preguntas giran en torno a un «nosotros» que se refiere a unas pocas personas en los países ricos que temen el fin de su modo de vida destructivo, basado en la explotación sistemática de una miríada de otros, otros seres humanos y otras especies.

Otra cita del libro de Pablo Servigne y Raphaël Stevens que resalta el narcisismo de la colapsología:

«Básicamente, la verdadera pregunta que plantea el colapso de la civilización industrial, más allá de su fecha precisa, duración o velocidad, es sobre todo si nosotros, como individuos, sufriremos o moriremos temprano. Proyectada a escala de las sociedades, es la cuestión de la perennidad de nuestros descendientes, e incluso de nuestra «cultura».

Una vez más, en lugar de preocuparse por el destino de estos otros, actualmente explotados, torturados o aniquilados por el funcionamiento normal de la civilización industrial, es el futuro de ellos mismos el que más preocupa a estos privilegiados pueblos del mundo.

Eso no es sorprendente. La mayoría de los que promueven la colapsología (y en otra medida, los que se interesan por ella) no provienen de los círculos militantes, de las luchas contra las injusticias sociales, no son de los que se rebelan contra funcionamiento normal y cotidiano -diabólicamente y fundamentalmente inicuo- de la civilización industrial. De ahí la cita introductoria de René Riesel y Jaime Semprun.

Sin embargo, en su libro, Pablo Servigne y Raphaël Stevens explican que las desigualdades son uno de los factores que se encuentra detrás de la destructividad de la civilización industrial. Desgraciadamente, en general, y sobre todo en los medios de comunicación tradicionales, de su reflexión sólo queda «la crítica ecológica de la que se elimina cualquier consideración vinculada a la crítica social» (Jaime Semprun y René Riesel).

El propósito de este artículo no es examinar todas las explotaciones, todas las coacciones, todas las enajenaciones, todas las aculturaciones, todos los reclutamientos, todos los condicionamientos, que constituyen la civilización industrial (y la civilización misma), y de la cual depende. Básicamente, recordaré simplemente que los pocos objetos que cada uno utiliza a diario lo vinculan a la explotación de una multitud de individuos y lugares del mundo (lugares formados por otros individuos no humanos, plantas, animales, etc.), de los que no sabe casi nada, y que de esta ignorancia de las consecuencias reales de su modo de vida brotan los más diversos e insospechados horrores (2). Bastaría con ver la fabricación de un teléfono móvil, un televisor, una camiseta de Nike, o un simple cepillo de dientes, o incluso un balón de fútbol, un coche, o cualquier objeto producido en masa, cualquier infraestructura industrial, para encontrar destrucción ambiental y esclavitud social.

La colapsología, al apoyarse únicamente en el «trabajo científico reconocido» (considerado como tal por la autoridad dominante de la ciencia institucional moderna), y al promoverlo, también sirve para reforzar el reinado de la pericia oficial, del «fetichismo del conocimiento cuantitativo» (Jaime Semprun y René Riesel).

[…] La catástrofe histórica más profunda y más real, la que en última instancia determina la importancia de todas las demás, reside en la persistente ceguera de la inmensa mayoría, en la dimisión de toda voluntad de actuar sobre las causas de tantos sufrimientos, en la incapacidad de considerarlas siquiera lúcidamente. Esta apatía va a resquebrajarse, en el curso de los próximos años, de manera cada vez más violenta por el hundimiento de cualquier supervivencia garantizada. Y quienes la representan y la alimentan, cultivando un precario statu quo de ilusiones tranquilizantes, serán barridos. La emergencia se impondrá a todos y la dominación tendrá que hablar por lo menos tan alto y claro como los propios hechos. Con tanta mayor facilidad adoptará el tono terrorista que le conviene cuanto que estará justificada por realidades efectivamente aterradoras. Un hombre aquejado de gangrena no está dispuesto a discutir las causas de su mal, ni a oponerse al autoritarismo de la amputación. […] Encyclopédie des Nuisances, n.0 13, julio de 1988

Este reinado de la ciencia institucional y del conocimiento cuantitativo ha sido (y es) una de las razones por las que a menudo se burlan, ignoran o denigran a quienes denuncian la insostenibilidad y la destructividad de la civilización industrial simplemente sobre la base del sentido común y la observación.

Como escriben Jaime Semprun y René Riesel en “Catastrofismo, administración del desastre y sumisión sostenible”:

«El fetichismo del conocimiento cuantitativo nos ha hecho tan necios y estrechos de miras que seremos considerados diletantes si decimos que un poco de sentido estético -pero no el adquirido en las escuelas de arte- bastó para juzgar las obras de teatro”.

Añaden, sobre la sumisión a la autoridad de los Expertos, establecida y aprobada por las instituciones científicas:

«Tal es el rigor del confinamiento industrial, el alcance de la decadencia unificada de las mentalidades que ha logrado, que aquellos que todavía tienen el aliento para no sentirse completamente arrastrados por la corriente y dicen que piensan en resistirse a ella, rara vez escapan, cualquier condena que pronuncien contra el progreso o la tecnociencia, si es necesario para justificar sus denuncias, o incluso su esperanza de una catástrofe salvífica, utilizando los datos proporcionados por la experiencia burocrática y las representaciones determinista que permiten apoyar. »

Aceptar «pensar» con las categorías y en los términos impuestos por la vida administrada» (Jaime Semprun y René Riesel, de nuevo) es someterse efectivamente a los límites, limitaciones y riesgos que ello implica. Cuyo riesgo es dar la impresión de que, puesto que las cosas se miden y se pueden medir, entonces son de alguna manera controladas y controlables.

A este respecto, otro extracto del excelente “Catastrofismo, Administración del Desastre y Sumisión Sostenible” de Riesel y Semprun:

«El culto a la objetividad científica impersonal, al conocimiento sin sujeto, es la religión de la burocracia. Y entre sus devociones favoritas, por supuesto, están las estadísticas, por excelencia, la ciencia del Estado, que de hecho se convirtió en tal en la Prusia militarista y absolutista del siglo XVIII, que también fue la primera, como señaló Mumford, en aplicar a gran escala a la educación la uniformidad y la impersonalidad del sistema escolar público moderno. Así como en Los Álamos el laboratorio se había convertido en cuartel, lo que el mundo-laboratorio anuncia, tal como lo representan los expertos, es un ecologismo de cuartel. El fetichismo de las medidas, el respeto infantil por todo lo que viene en forma de cálculo, todo esto no tiene nada que ver con el miedo al error sino más bien con el de la verdad, como el no experto podría arriesgarse a formularlo, sin necesidad de cifras. Por eso es necesario educarlo, informarlo, para que se someta de antemano a la autoridad científico-ecológica que promulgará las nuevas normas, necesarias para el buen funcionamiento del aparato social. En las voces de quienes repiten celosamente las estadísticas difundidas por la propaganda catastrófica, no se escucha la revuelta, sino la sumisión anticipada a los estados de excepción, la aceptación de las disciplinas venideras, la adhesión al poder burocrático que pretende, por coerción, asegurar la supervivencia colectiva”.

Finalmente, otro problema de colapsología, en parte relacionado con todo lo anterior, se refiere a la ingenuidad de su discurso.

Pero para entenderlo, recapitulemos. ¿Por qué todo esto es un problema?

Pues bien, si la colapsología está en la televisión y se promueve en los periódicos, es porque apenas perturba a la ideología dominante: al igual que ella, considera que el colapso de la sociedad industrial es un desastre. Además, la difusión de este mensaje en los medios de comunicación no hace sino reforzar el clima de inseguridad y miedo que garantiza una población cada vez más dócil y apática. Pan bendito para la hiperplasia mundial que se enriquece cada vez más en todos nosotros (sobre este tema, el último informe de Oxfam (3) es espantoso, como los anteriores).

De hecho, por poner un ejemplo, la intervención de Pablo Servigne en LCI se resumió en la predicción de un colapso de la civilización industrial por falta de recursos (principalmente). No hay indicios de que la civilización industrial constituya una catástrofe mortal que destruya, explote, torture y esclavice la vida cotidiana humana y no humana.

Entiendo que Pablo Servigne tiene tendencias anarquistas.

Paradójicamente, tal como están las cosas, el discurso extremadamente moderado y antropocéntrico (narcisista) de la colapsología corre el riesgo de apoyar tanto el narcisismo de los habitantes de los países ricos, que se preocuparán principalmente por su propio destino, su propia supervivencia, como la sumisión a las medidas gubernamentales y estatales que el discurso dominante afirma y afirmará cada vez más que permiten y que permitirán si no lo hacen.

Iniciativas como la de la Notre-Dame-des-Landes ZAD no emanan, o al menos no sólo y no principalmente, de una preocupación narcisista, sino que emanan de un deseo de poner fin a la catástrofe industrial, de defender el mundo natural y todos aquellos otros que la civilización ignora y desprecia. Forman parte de una lógica conflictiva de oposición al Estado (y a la civilización industrial en general).

Actualmente (y en los años venideros), el desarrollo de las tecnologías denominadas «renovables» (solar, eólica, presas, biomasa, etc.) es una prioridad, y las altas tecnologías en general se intensificarán (4), un aumento, unas prácticas extractivas y una explotación de los «recursos naturales» en general (en nombre del «crecimiento verde (5)» y/o del «desarrollo sostenible»), que corresponderán a un agravamiento significativo del impacto medioambiental de la civilización industrial. Entre otras cosas, porque la energía solar y eólica industrial requiere metales y minerales raros que se encuentran en cantidades limitadas y sólo en ciertas partes del mundo. La extracción, procesamiento y explotación de estas materias primas ya está generando un desastre ecológico (6).

Entre otras cosas, porque la energía solar y eólica industrial requiere metales y minerales raros que se encuentran en cantidades limitadas y sólo en ciertas partes del mundo. La extracción, procesamiento y explotación de estas materias primas ya está generando un desastre ecológico”.

Los estados del mundo y sus líderes (directores generales y políticos) conocen estos problemas ambientales y no les importa, era lo que se esperaba. Los líderes estatales saben que esto podría crear nuevos conflictos internacionales. Dicen que están preparados para hacer frente a esta eventualidad, como puede verse en un informe de oficio del Parlamento publicado en la página web del Senado (7) y titulado «Strategic issues of rare earths and strategic and critical raw materials».

A nivel mundial, la militarización del mundo está aumentando, también debido a las predicciones de las migraciones humanas masivas que el cambio climático causará, y a la futura escasez o agotamiento de varios recursos estratégicos (incluyendo la tierra misma, el agua, etc.).

Las injusticias a gran escala continuarán y empeorarán.

Más que nunca, si queremos defender el mundo natural de los asaltos que está sufriendo y sufrirá en los próximos decenios, necesitamos una resistencia organizada, que asuma un conflicto deliberado con el Estado, como nos ha demostrado Notre-Dame-des-Landes.

Las iniciativas de individuos del mundo rico que buscan aumentar la resiliencia de sus comunidades (al estilo de las Ciudades en Transición) a través de paneles solares y turbinas eólicas industriales sólo apoyarán el extractivismo de los estados y las corporaciones y la explotación de los esclavos modernos en todo el mundo y especialmente en los países pobres.

Las iniciativas de individuos del mundo rico que buscan aumentar la resiliencia de sus comunidades (al estilo de las Ciudades en Transición) a través de paneles solares y turbinas eólicas industriales sólo apoyarán el extractivismo de los estados y las corporaciones y la explotación de los esclavos modernos en todo el mundo y especialmente en los países pobres”.

No sabemos cuándo ocurrirá un colapso. Pero sabemos que las cosas van mal en estos momentos y que empeorarán durante algún tiempo.

Para quienes luchan contra el conjunto de las explotaciones e injusticias que conforman la civilización industrial, la perspectiva de su colapso es sólo una esperanza lejana. Así como para quien lucha contra la acumulación de destrucciones ecológicas que la componen. Para ellos, el colapso es un acontecimiento esperado con impaciencia.

Anteriormente, dije cómo los colapsólogos tienden a ver el colapso venidero como un desastre. Así es en la mayoría de los casos. Pero no siempre. En su libro, Pablo Servigne y Raphael Stevens, además de la tímida referencia a la posición de David Holmgren, sugieren de vez en cuando que el colapso de la sociedad industrial será una especie de liberación.

Esta ambivalencia, esta incapacidad de saber lo que constituye una catástrofe, de la civilización industrial o de su colapso, va unida a la incapacidad de mantener un discurso claro y coherente sobre lo que debe emprenderse.

En la serie del sitio web NEXT, producida por Clément Montfort sobre el tema de la colapsología está preocupada, como la mayoría de los colapsólogos, tanto por los desastres ecológicos que genera la civilización industrial (las » devastaciones biológicas de los ecosistemas «) como por el colapso de esta civilización ( » los riesgos de colapso de nuestra civilización «). El episodio en el que Yves Cochet es entrevistado, por ejemplo, sólo discute la perspectiva de colapso para los seres humanos que viven dentro de la civilización industrial; habla de «acontecimientos dramáticos», de un «cierto colapso», de «algo tan atroz como el colapso puede ocurrir», de una «realidad catastrófica que nos espera», y cosas por el estilo. Después de lo cual tenemos el privilegio de descubrir cómo el Sr. Cochet se las arregla para vivir con esta idea del colapso («¿Cómo se las arregla usted personalmente, a diario, para vivir con esta idea del colapso?»).

Esta confusión en cuanto a lo que realmente importa, esta espantosa propensión a considerar que es de alguna manera tan problemático y triste ver el mundo natural destrozado como concebir el colapso de la monocultura globalizada que lo está destruyendo, es típica de la confusión cultural e ideológica sobre la que se construyó la civilización industrial y que todavía se mantiene.

Peor aún, de hecho, esta serie se centra en gran medida en el narcisismo de la gente civilizada y se centra principalmente en la catástrofe que el colapso representará para los habitantes de los países ricos y para los miembros de la civilización industrial en general.

Además, en el episodio 4, titulado «Bercy invita a los colapsólogos», seguimos a Pablo Servigne y Raphaël Stevens, que se dirigen al Ministerio de Economía y Finanzas, en octubre de 2016, para participar en una reunión del Consejo General de Economía organizada por un tal Dominique Dron, que trabaja allí y que aparentemente aprecia mucho su libro. Y nos enteramos de que «durante esta reunión, una veintena de expertos del Estado asisten a su presentación» y que «el Consejo General del Ministerio de Economía prepara opiniones e informes de expertos para los ministros solicitantes». Si Dominique Dron ha apreciado su libro es porque su contenido «era muy interesante para nuestra actividad en materia de riesgos», para «el trabajo de la sección «seguridad-riesgo» que trata de la «ciberresistencia» (que pretende garantizar «sistemas digitales resistentes»), sino también «riesgos de suministro de energía», y otras cosas en «energía, industria, telecomunicaciones digitales, servicios financieros». Tenemos aquí, al mismo tiempo, una colaboración con los servicios del Estado, que confirma la ausencia de espíritu crítico de estos colapsólogos, su simpatía por el Estado (lo que probablemente invalida mi observación sobre las tendencias anarquistas de Pablo Servigne), y una ilustración de cómo la colapsología puede servir para fortalecer al Estado frente a los múltiples riesgos que enfrenta y en los que incurrirá en el futuro.

Y sin embargo, en el episodio 5, Yves Cochet habla de los zadistas y de los que luchan contra diversos proyectos estatales y empresariales como «precursores». ¿Ayudar al Estado o luchar contra él? Realmente no lo sabemos. Ambos, aparentemente.

El artículo del periódico Le Monde sobre la colapsología publicado a principios de este año 2018 presenta, obviamente, el colapso de la civilización industrial como una catástrofe, a la vez que promueve, a través de Jared Diamond, la mentira racista del pesimismo antropológico, que consiste en una burda afirmación según la cual «el hombre siempre se ha comportado de manera devastadora en sus relaciones con todo lo que vive». Y pasar al olvido de la historia -escrita por los vencedores- a todos aquellos pueblos que vivieron de una manera si no totalmente sostenible, al menos infinitamente más sostenible que los civilizados que los masacraron. Por no hablar de los que aún existen en la actualidad, en la India, el Amazonas, Oceanía, África y otros lugares (desde los Jarawas hasta los Penan, pasando por los pigmeos), y que la civilización industrial está destruyendo lentamente.

Una manera de justificar y racionalizar lo abominable con el pretexto de que es simplemente la naturaleza humana (esta naturaleza humana es, en realidad, sólo una invención occidental, como nos recuerda acertadamente el mariscal Sahlins).

En otras palabras, tal como están las cosas, la colapsología refuerza la identificación tóxica de la mayoría de las personas que viven dentro de la civilización industrial con esta cultura mortal, en lugar de fomentar su identificación con el mundo natural. Por lo tanto, sirve a los propósitos destructivos del estado y de los principales medios de comunicación, su propaganda, la cultura dominante, mucho más de lo que sirve al planeta y a todas las especies vivientes.

Sólo cabe esperar que sus promotores clarifiquen su perspectiva, que se liberen del hedor tóxico de la cultura dominante que les impide adoptar una postura más decidida, que integren la crítica social en su análisis, que adopten una perspectiva más integral, biocéntrica o ecocéntrica, uniéndose así inequívocamente al campo de los que luchan contra la «guerra contra el mundo viviente» que acarrea la civilización industrial, según la expresión de George Monbiot.

Nicolas Casaux

Referencias:

1. https://reporterre.net/La-web-serie-qui-raconte-l-effondrement-de-notr…

2. http://partage-le.com/2017/12/8414/

3. https://reporterre.net/Le-nombre-de-milliardaires-a-connu-en-2017-sa-p…

4. Voir cet article que j’ai récemment publié, « La transition anti-écologique : comment l’écologie capitaliste aggrave la situation » : http://partage-le.com/2017/09/7654/

5. Pour en savoir plus sur la nuisance de la croissance verte, vous pouvez lire ce texte de Philippe Bihouix, « Du mythe de la croissance verte à un monde post-croissance » : http://partage-le.com/2017/09/du-mythe-de-la-croissance-verte-a-un-mon…

6. Voir le nouveau livre de Guillaume Pitron du Monde Diplomatique dont parle ici le magazine les Inrockuptibles : https://www.lesinrocks.com/2018/01/06/livres/un-livre-revele-la-plus-f…

7. http://www.senat.fr/rap/r15–617–1/r15–617–1.htm

————————————

Millones de personas protestan en Brasil en contra de una ley que permite la tecnología de Extinción Genética

Por Sustainable Pulse, 28 de febrero de 2018

sustainablepulse

Los movimientos rurales más numerosos de Brasil, que representan a más de un millón de agricultores, protestan contra una nueva regulación brasileña que permitiría el empleo de la genética dirigida (gene drives), la controvertida tecnología de extinción genética, en los ecosistemas y explotaciones agrícolas de Brasil.

Los días 3 y 4 de febrero, la Coalición Nacional de Trabajadores Agrícolas y Pueblos Rurales, Acuáticos y Forestales se reunió cerca de São Paulo, Brasil y dio la voz de alarma sobre los nuevos cambios normativos brasileños – una resolución aprobada el 15 de enero por la Comisión Técnica Nacional de Seguridad de la Biotecnología de Brasil que permitiría la liberación de organismos desarrollados mediante la tecnología de la genética dirigida en el medio ambiente. El efecto de este cambio es que Brasil se convierte en el primer país del mundo en establecer un canal legal para el empleo de la genética dirigida en el medio ambiente. La nueva norma podría facilitar aún más la liberación de un organismo genético vivo que de una semilla transgénica.

A las organizaciones de agricultores les preocupa que los gigantes de la agroindustria distribuyan más semillas transgénicas, pero también intentan cambiar directamente la naturaleza de las plantas y animales silvestres.

João Pedro Stédile, de la Coordinadora Nacional del Movimiento de Trabajadores Rurales Sin Tierra (MST), que representa a más de un millón de campesinos sin tierra en Brasil y forma parte del movimiento campesino Vía Campesina, resumió las preocupaciones expresadas en la reunión:

«Brasil vive una grave crisis política, económica, social y ambiental, y el capital transnacional ha apoyado un golpe político. En este contexto, el gobierno está cambiando las leyes y la Constitución para permitir que se apoderen de nuestros recursos naturales. Esta decisión de la CTNBio es ilegal, y permitiría la diseminación de nuevas semillas transgénicas y organismos vivos sin siquiera un mínimo de controles y evaluaciones. No nos mantendremos pasivos ante estos ataques, lucharemos contra esta resolución».

Preocupaciones de científicos y movimientos campesinos sobre la Genética Dirigida

La preocupación de los movimientos también ha sido compartida por los científicos brasileños. «Esta decisión socava algunos de los principios fundamentales de la legislación de bioseguridad en Brasil», dijo Leonardo Melgarejo, ex representante del Ministerio de Desarrollo Social Rural ante la CTNBio. «La CTNBio no tiene autoridad ni mandato para hacer esto. Además, esta decisión tiene un enorme impacto potencial en los agricultores, los consumidores y la biodiversidad de Brasil, pero fue tomada sin consultar a la sociedad civil ni a los movimientos. Muchos expertos que han estado siguiendo la bioseguridad en el país se unirán ahora a los agricultores y otros movimientos para desafiar esta absurda decisión».

La nueva «resolución normativa» de Brasil permite a la Comisión de Bioseguridad aprobar la liberación de productos derivados de lo que ellos denominan «Técnicas Innovadoras de Reproducción de Precisión» sin pasar por una evaluación de riesgo de bioseguridad establecida o requerir etiquetado, si la Comisión de Bioseguridad considera que no son transgénicos. Entre las tecnologías alistadas para tal excepción se encuentran varias nuevas técnicas de modificación genética, entre ellas la tecnología CRISPR y las unidades genéticas.

Acerca de la Genética Dirigida

La Genética Dirigida es una nueva y controvertida tecnología que utiliza CRISPR-Cas9 para propagar un rasgo genético específico a través de toda una especie o población, en algunos casos con el propósito de impulsar a las especies a la extinción. Se han realizado experimentos con insectos, roedores y plantas. Si el rasgo genético insertado resulta en sólo descendencia masculina, como se está intentando para roedores y mosquitos, una población silvestre completa o incluso una especie podría extinguirse. Hasta donde se sabe, la genética dirigida nunca ha sido liberada en el medio ambiente en ninguna parte del mundo.

«Los organismos desarrollados mediante la Genética dirigida representan amenazas únicas para la naturaleza y los medios de subsistencia», dice Silvia Ribeiro, Directora para América Latina del Grupo ETC. «Es la primera vez que la industria biotecnológica ha diseñado intencionadamente transgénicos para propagarse agresivamente en el ambiente natural y contaminar especies silvestres. Parece surrealista que la decisión de imponer tan grandes peligros a un país tan diverso como Brasil sea tomada por una pequeña comisión técnica, sin siquiera involucrar al Congreso o a la sociedad civil».

Preocupaciones sobre la guerra biológica y su uso por parte de los gigantes de la Industria Agroquímica

En el encuentro, los movimientos y organizaciones firmaron una carta abierta afirmando que «rechazan enérgicamente la Resolución Normativa 16/2018 de la CTNBio, que pretende legalizar y liberar sin regulación, evaluación o etiquetado nuevos organismos transgénicos que tendrán un impacto en los campesinos, la soberanía alimentaria, la salud y el medio ambiente». En particular, denunciamos y rechazamos la intención de la CTNBio de legalizar la «Genética Dirigida», es decir, los organismos transgénicos que pueden utilizarse para llevar a las especies a la extinción y como armas biológicas…«.

Debido al poder de la tecnología y a los riesgos inherentes, la genética dirigida se considera una potencial arma biológica. Según los 1.200 correos electrónicos publicados en respuesta a las solicitudes de acceso a la información de un grupo de organizaciones de la sociedad civil, las Fuerzas Armadas de Estados Unidos se han convertido en uno de los principales financiadores de la investigación sobre la Genética Dirigida a nivel mundial. (Reconocen el uso potencial como arma biológica pero alegan que su interés es sólo defensivo. El segundo mayor financiador de las campañas genéticas es la Fundación Bill y Melinda Gates, que afirma estar apoyando el desarrollo de la tecnología para combatir las plagas, como los mosquitos que portan la malaria, eliminando genéticamente su capacidad de reproducción).

Los movimientos argumentan, en cambio, que serán las gigantescas corporaciones de agronegocios las que se beneficiarán, ya que tratarán de manipular malezas resistentes a los herbicidas para restablecer su susceptibilidad a los productos químicos, y «se verán libres de invadir campos y mercados con nuevos productos genéticamente modificados, libres de evaluaciones, regulaciones o etiquetas, agilizando así las liberaciones y aumentando sus ganancias«.

¿Está Brasil menoscabando las normas de la ONU?

La tecnología de Genética Dirigida se está debatiendo actualmente en el Convenio de las Naciones Unidas sobre la Diversidad Biológica (CDB), en el que un grupo de expertos (el Grupo Especial de Expertos Técnicos en Biología Sintética) ha advertido recientemente de que plantean nuevos riesgos para el medio ambiente, por lo que las evaluaciones actuales de bioseguridad podrían no ser suficientes o adecuadas.

Las conclusiones del Grupo Especial de Expertos Técnicos (GEET) serán discutidas por el CDB en 2018. Marciano Toledo, de MPA (Movimiento de Pequeños Agricultores, Brasil), uno de los firmantes y también miembro de La Vía Campesina, estuvo presente en la Conferencia de las Partes de la CDB en 2017, donde 160 organizaciones internacionales pidieron a la Convención que estableciera una moratoria sobre la Genética Dirigida.

«La iniciativa de Brasil de incluir ahora esta tecnología en su legislación probablemente tenga por objeto influir en los resultados del debate de las Naciones Unidas en un esfuerzo por anticiparse a una decisión sobre una moratoria. Esto es inaceptable», dijo Toledo. «El CTNBio nunca abrió el espacio para consultas con la sociedad civil o investigadores independientes en su propio país. También optan por hacer caso omiso del debate científico en el CDB, que muestra que todavía no hay capacidad adecuada ni marcos de bioseguridad para evaluar los resultados e impactos de las nuevas biotecnologías, en particular de la Genética Dirigida».

La industria biotecnológica ha intentado eximir a las nuevas biotecnologías de la legislación de bioseguridad en otros países, incluyendo la Unión Europea, los Estados Unidos, Chile, Australia y Nueva Zelanda. Argentina aprobó una resolución normativa similar en 2015, también como una medida administrativa y sin debate. Sin embargo, la resolución brasileña es la primera en incluir explícitamente la genética dirigida en su ámbito de aplicación.

———————————

El mayor estudio realizado hasta ahora con animales confirmó la relación entre el cáncer y la radiación emitida por las antenas de telefonía móvil

Por Sustainable Pulse, 22 de marzo de 2018

sustainablepulse.com


Investigadores del renombrado Instituto Ramazzini (RI) de Italia anuncian que un estudio a gran escala realizado en animales de laboratorio expuestos a niveles ambientales de radiación procedente de las antenas de telefonía móvil les provocó cáncer. Un estudio que ha costado 25 millones de dólares, y en el que se han empleado  unos niveles de radiación (RF) más bajos  que los del estudio del Programa Nacional de Toxicología de los Estados Unidos (NTP, por sus siglas en inglés), que también ha encontrado el mismo cáncer inusual llamado Schwannoma en los tejidos situados en torno al corazón en ratas macho. Además, el estudio de RI sobre radiación de antenas de telefonía móvil también encontró aumentos en tumores cerebrales malignos (gliales) en ratas hembra y afecciones precancerosas, incluyendo hiperplasia de células de Schwann en ratas macho y hembra.

«Nuestros hallazgos de tumores cancerosos en ratas expuestas a niveles ambientales de RF son consistentes y refuerzan los resultados de los estudios realizados en los Estados Unidos sobre radiación de teléfonos móviles, ya que ambos registraron aumentos en los mismos tipos de tumores cerebrales y cardíacos en ratas Sprague-Dawley». Juntos, estos estudios proporcionan suficiente evidencia para que la Agencia Internacional para la Investigación del Cáncer (IARC, por sus siglas en inglés) reevalúe y reclasifique sus conclusiones con respecto al potencial carcinogénico de la RFR en humanos», dijo Fiorella Belpoggi PhD, autora del estudio y Directora de Investigación de RI.

El estudio Ramazzini expuso a 2448 ratas Sprague-Dawley, desde la vida prenatal hasta su muerte natural, a la radiación de antenas de telefonía móvil durante 19 horas al día (radiación de radiofrecuencia GSM (RFR) de 1,8 GHz de 5, 25 y 50 V/m). Las exposiciones de RI imitaban las emisiones de la estación base como las de las antenas de telefonía móvil, y los niveles de exposición fueron mucho menores que los utilizados en los estudios del NTP sobre radiación de teléfonos móviles.

«Todas las exposiciones utilizadas en el estudio Ramazzini estaban por debajo de los límites de la FCC (Comisión Federal de Comunicaciones) de los Estados Unidos. Estas son exposiciones permitidas de acuerdo con la FCC. En otras palabras, una persona puede estar legalmente expuesta a este nivel de radiación. Sin embargo, los cánceres ocurrieron en estos animales en los niveles legalmente permitidos. Los hallazgos de Ramazzini son consistentes con el estudio del NTP demostrando que estos efectos son un hallazgo reproducible», explicó Ronald Melnick PhD, anteriormente el toxicólogo principal de los NIH que dirigió el diseño del estudio del NTP sobre la radiación de los teléfonos móviles y que ahora es asesor científico principal del Environmental Health Trust (EHT).

«Los gobiernos necesitan fortalecer las regulaciones para proteger al público de estas dañinas exposiciones no térmicas.»

«Este importante artículo de una de las instituciones más reconocidas de su tipo en el mundo proporciona una nueva e importante incorporación a la literatura técnica que muestra fuertes razones para preocuparse por la radiación electromagnética procedente de estaciones base o antenas de telefonía móvil», afirmó el Editor Jefe de Investigación Medioambiental José Domingo PhD, Profesor de Toxicología de la Facultad de Medicina de la Universidad de Reus, Cataluña, España.

«Los resultados del NTP de los EE.UU. combinados ahora con el estudio Ramazzini, refuerzan los estudios en humanos de nuestro equipo y otros que proporcionan evidencias claras de que la radiación RF causa neurinoma acústico (schwannoma vestibular) y gliomas, y debería ser clasificada como carcinogénica para los humanos», declaró el Dr. Lennart Hardell, MD, PhD, médico-epidemiólogo del Departamento de Oncología del Hospital Universitario de Örebro, Suecia, quien ha publicado extensamente sobre el medio ambiente.

«Este estudio plantea la preocupación de que el simple hecho de vivir cerca de una antena de telefonía móvil supone una amenaza para la salud humana. Los gobiernos deben tomar medidas para reducir la exposición a las emisiones de las antenas de telefonía móvil. Las antenas de telefonía móvil no deben estar cerca de escuelas, hospitales o casas. Las agencias de salud pública necesitan educar al público sobre cómo reducir la exposición a todas las fuentes de radiación de radiofrecuencia inalámbrica, ya sea desde antes de telefonía móvil, teléfonos móviles o Wi-Fi en las escuelas», dijo David O. Carpenter MD, ex Decano de la Escuela de Salud Pública de la Universidad de Albany. «Esto es particularmente urgente debido a los planes actuales de colocar pequeñas torres de telefonía móvil 5G cada 300 metros en todas las calles del país. Estas antenas de «célula pequeña’ de 5G resultarán en una exposición continua a todos los que viven cerca y a todos los que caminan por la calle. El aumento de la exposición aumentará el riesgo de cáncer y otras enfermedades como la electro-hipersensibilidad».

Los investigadores del Instituto Ramazzini han completado cerca de 500 bioensayos de cáncer en más de 200 compuestos, y el diseño de su estudio es único en el sentido de que se permite que los animales vivan hasta su muerte natural para permitir la detección de tumores de desarrollo tardío. El ochenta por ciento de todos los cánceres humanos se desarrollan tarde y ocurren en humanos después de los 60 años de edad. Este período de observación más largo ha permitido al RI detectar estos tumores posteriores para una serie de sustancias químicas, y su investigación publicada incluye estudios de benceno, xilenos, mancoceb, formaldehído y cloruro de vinilo.

Los resultados de la investigación Ramazzini son el resultado de hallazgos similares de estudios experimentales a gran escala sobre radiación de teléfonos móviles del Programa Nacional de Toxicología de los Estados Unidos (NTP, por sus siglas en inglés). Ambos estudios encontraron aumentos estadísticamente significativos en el desarrollo del mismo tipo de tumor muy raro y altamente maligno en el corazón de ratas macho.

«Esta publicación es un serio motivo de preocupación», declaró Annie J. Sasco MD, DrPH, SM, MPH, Directora de Investigación jubilada del INSERM (Instituto Nacional de Salud Pública de Francia) y ex Jefa de Unidad de la Agencia Internacional para la Investigación del Cáncer/Organización Mundial de la Salud, Francia, quien comentó que «algunos de los resultados no son estadísticamente significativos debido al número relativamente pequeño de animales involucrados. Sin embargo, eso no significa que deban ser ignorados. Los estudios más amplios podrían producir resultados estadísticamente significativos y, en cualquier caso, la significación estadística es sólo un aspecto de la evaluación de la relación entre la exposición y la enfermedad. La importancia biológica y la concordancia de los resultados entre los seres humanos y los animales refuerzan claramente la fuerza de las pruebas de carcinogenicidad. El hecho de que ambos estudios experimentales encontraran los mismos tipos de tumores raros, que también tienen pertinencia para el cuadro clínico humano, es sorprendente».

«Tales hallazgos de efectos a niveles muy bajos no son inesperados», declaró Devra Davis PhD, MPH, presidenta de EHT, señalando un estudio en animales de replicación de la Universidad de Jacobs publicado en 2015 que también encontró que niveles muy bajos de RFR provocaron crecimiento tumoral. «Este estudio confirma una literatura cada vez más amplia y proporciona una llamada de atención a los gobiernos para que promulguen políticas de protección que limiten la exposición al público y al sector privado para hacer que la tecnología segura libre de radiación esté disponible».

En enero de 2017, en una conferencia internacional copatrocinada por Environmental Health Trust y el Instituto Israelí de Estudios Avanzados de la Universidad Hebrea, la Dra. Fiorella Belpoggi, Directora de Investigación del Instituto Ramazzini, presentó el diseño del estudio y los hallazgos de que los animales expuestos a RFR tenían un peso significativamente menor que el resto. La presentación y las diapositivas de Belpoggi están disponibles en la red. Los hallazgos de Ramazzini de menor peso de la camada son consistentes con el estudio del NTP, que también encontró menor peso de la camada en animales expuestos prenatalmente. En ese momento, la revista italiana Corriere publicó un artículo sobre la presentación del estudio Ramazzini y citó la recomendación de Belpoggi de «máxima precaución para los niños y las mujeres embarazadas«.

Al señalar que «los estándares actuales no se establecieron para proteger a los niños, las mujeres embarazadas y el creciente número de bebés y niños pequeños para quienes los dispositivos se han convertido en juguetes», Davis, que también es Profesor Visitante de Medicina del Centro Médico de la Universidad Hebrea y Editor Invitado en Jefe de la revista Environmental Research, agregó:

«Los límites actuales de la FCC, que ya tienen 20 años de antigüedad, se establecieron cuando la llamada promedio era de seis minutos y los costosos teléfonos móviles eran utilizados por muy pocos. Estos nuevos e importantes estudios que cambian el comportamiento muestran que los animales desarrollan los mismos tipos de cánceres inusuales que se observan en los pocos estudios epidemiológicos en humanos que se han realizado. A la luz de estos resultados, Environmental Health Trust se une a expertos en salud pública de los estados de California, Connecticut y Maryland, así como de Francia, Israel y Bélgica, para pedir al gobierno y al sector privado que lleven a cabo importantes campañas educativas de salud pública para promover una tecnología más segura de teléfonos y dispositivos personales, exigir y acelerar los cambios fundamentales en el hardware y el software para reducir la exposición a las radiaciones de RFR/microondas en los ambientes interiores y exteriores, e instituir importantes programas de monitoreo, capacitación e investigación para identificar soluciones, problemas futuros y prevención de peligros y riesgos relacionados.”

«Más de una docena de países recomiendan reducir la exposición de los niños a la radiación de radiofrecuencia, y países como China, Italia, India y Rusia tienen regulaciones de radiación de las antenas de telefonía móvil mucho más estrictas que las de la FCC de los Estados Unidos. Sin embargo, este estudio proporciona evidencia científica que los gobiernos pueden utilizar para tomar aún más medidas», declaró Theodora Scarato, Directora Ejecutiva de EHT.

El artículo es «Report of final results regarding brain and heart tumors in Sprague-Dawley rats exposed from prenatal life until natural death to mobile phone radiofrequency field representative of a 1.8 GHz base station environmental emission» by L. Falcioni, L. Bua, E.Tibaldi, M. Lauriola, L. De Angelis, F. Gnudi, D. Mandrioli, M. Manservigi, F. Manservisi, I. Manzoli, I. Menghetti, R. Montella, S. Panzacchi, D. Sgargi, V. Strollo, A.Vornoli, F. Belpoggi (doi.org/10.1016/j.envres.2018.01.037). Aparece en Environmental Research publicado por Elsevier.

—————————

Geoingeniería solar: experimentando con el clima terrestre

Muchos son los que se oponen a rociar partículas en la atmósfera, pero un pequeño grupo de investigadores dicen que merece la pena estudiar estos enfoques antes de que sea demasiado tarde

Por Tien Nguyen, 26 de marzo de 2018

cen.acs.org

Estos proyectos grandiosos que los climatólogos más sensatos rechazan por las “acciones imprevistas” que podrían desencadenar, recuerdan los delirios de un científico loco de tebeo”. – “Catastrofismo, administración del desastre y sumisión sostenible”, René Riesel y Jaime Semprun.

La primera vez que Frank Keutsch oyó hablar de la geoingeniería solar, pensó que la idea era aterradora. Para el químico atmosférico de la Universidad de Harvard, proyectos como rociar millones de toneladas de partículas de sulfato en el cielo para reflejar los rayos del sol y enfriar el planeta parecían peligrosos. Las estrategias no sólo podrían alterar la atmósfera de manera inesperada, sino que también podrían alterar dramáticamente el clima y dañar la vida de los habitantes de la Tierra.

«Es un tema muy polémico, y por una buena razón», dice Keutsch. Claro, las incógnitas de abrir lo que equivale a una sombrilla química sobre nuestras cabezas son preocupantes. Pero aún más preocupante, dice Keutsch, es el «riesgo moral» de la geoingeniería solar: la idea de que en lugar de abordar directamente la causa del cambio climático, reduciendo el uso de combustibles fósiles, los seres humanos recurrirían a la geoingeniería solar para simplemente evitar sus síntomas. El término «riesgo moral», tomado de los economistas, describe la tentación de las personas de adoptar decisiones más arriesgadas cuando se sienten a salvo de las consecuencias.

Los científicos han discutido la geoingeniería solar en voz baja durante años, pero temores como el de Keutsch significaban que los experimentos eran un tema tabú. Eso comenzó a cambiar en 2006, cuando Paul J. Crutzen, que había compartido el Premio Nobel de Química más de una década antes por su trabajo sobre el deterioro de la capa de ozono, escribió un polémico ensayo en el que solicitaba la investigación de la geoingeniería estratosférica (Clim. Change 2006, DOI: 10.1007/s10584-006-9101-y). Si bien esperaba un mundo en el que redujéramos las emisiones de carbono hasta el punto de que estas medidas arriesgadas nunca fueran necesarias, escribió: «En la actualidad, esto parece un anhelo piadoso».

En la década transcurrida, un número relativamente pequeño de grupos de investigación ha asumido el compromiso de Crutzen, en su mayoría realizando estudios teóricos. Ahora algunos dicen que están listos para realizar experimentos en el mundo real, posiblemente a finales de este año.

Pero la mayoría de los científicos todavía encuentran esta idea profundamente preocupante. Entre ellos se encuentra Daniel Cziczo, un científico de la atmósfera del Instituto Tecnológico de Massachusetts. Para Cziczo, la idea de rociar sulfatos en el aire como respuesta al cambio climático es un fracaso porque destruiría el ozono. Tampoco aborda la acidificación de los océanos, uno de los efectos secundarios más perjudiciales del cambio climático.

Investigadores de Harvard proponen, a finales de este año, realizar el primer experimento de geoingeniería solar en la vida real: un globo volando a 20 km del suelo que liberaría un penacho de partículas, como hielo y CaCO3, para luego estudiar sus propiedades físicas y químicas.

«Los científicos están lanzando propuestas que a veces son una locura absoluta», dice Cziczo. Es «totalmente ilógico», dice, enseñar a la gente a reducir las emisiones de carbono a la vez que se impulsa una opción que les permite ignorar sus consejos.

Aún así, los responsables gubernamentales y los partidarios de la investigación en geoingeniería siguen evaluando sus opciones. Dos son las clases principales que componen las técnicas de geoingeniería: la geoingeniería solar -también conocida como modificación de albedo- que se centra en reflejar la luz solar antes de que llegue a la Tierra, y la captura directa de aire, un conjunto de técnicas para succionar el dióxido de carbono del aire exterior. En 2015, las Academias Nacionales de Ciencias, Ingeniería y Medicina de EE. UU. evaluaron las propuestas para ambos tipos de enfoques en un par de informes y concluyeron que no había suficiente información para recomendar ninguna de estas tecnologías de geoingeniería para su aplicación a gran escala.

Algunos en el Congreso están ahora pidiendo a las Academias Nacionales que reevalúen sus estudios, especialmente de geoingeniería solar.

A finales del año pasado, después de la primera audiencia del Congreso sobre geoingeniería, centrada principalmente en tecnologías solares, en la Cámara de Representantes de Estados Unidos, los demócratas Jerry McNerney de California y Eddie Bernice Johnson de Texas propusieron el proyecto de ley H.R. 4586 para que «las Academias Nacionales estudien e informen sobre una agenda de investigación para avanzar en la comprensión de las estrategias de modificación de albedo, y para otros fines». La captura directa de aire, la otra rama de la geoingeniería, también ha captado el interés federal. Este mes, el Congreso introdujo un incentivo fiscal diseñado para estimular el gasto en la captura de carbono, tanto desde fuentes puntuales como las centrales térmicas como directamente desde el aire circundante.

Mientras tanto, con un océano entre medias, representantes de muchas de las naciones del mundo se reunían en Bonn para discutir los próximos pasos en la reducción de emisiones para cumplir con las metas del Acuerdo de París de 2015, que tiene como objetivo limitar el aumento de las temperaturas globales a menos de 2 °C para el año 2100. Los EE.UU. no estuvieron presentes en esta reunión, después de haber dejado el acuerdo unos meses antes.

De hecho, todavía creo que es un concepto aterrador”.

-Frank Keutsch , químico líder en experimentos de geoingeniería solar al aire libre, Universidad de Harvard

En medio de todas estas discusiones científicas y políticas, un equipo de investigadores de Harvard propone lanzar el primer experimento de geoingeniería solar al aire libre cerca de Tucson a finales de este año. El grupo planea lanzar al aire a 20 km de altura un globo con mecanismos que permitirían la descarga de partículas en una superficie de 1 km de largo y 100 metros de ancho, luego dar la vuelta y estudiar las propiedades físicas básicas de las partículas en la atmósfera superior.

Dirigiendo esta prueba estratosférica, a pesar de su inquietud inicial, está Keutsch.

«De hecho, sigo pensando que es un concepto aterrador», dice. «Pero al mismo tiempo, si miras las predicciones del cambio climático, creo que también son muy aterradoras».

Keutsch, al igual que los demás científicos que estudian la geoingeniería solar, insiste en que la reducción de las emisiones de carbono debe ser la primera prioridad de la sociedad. Pero mientras tanto, dice, una mayor comprensión de los riesgos que implica la geoingeniería solar a través de experimentos podría ser útil. «El conocimiento es mejor que la ignorancia.»

Si el incipiente campo avanza -y algunos esperan asegurarse de que no lo haga-, los investigadores en geoingeniería solar no carecerán de preguntas a las que responder: ¿Qué tipos de partículas deberían liberarse en el cielo? ¿Cuántas partículas y dónde? ¿Qué pasa cuando caen a la Tierra? Y tal vez lo más apremiante: ¿Quién decide si es algo apremiante y cuándo hacerlo?

Modelos avanzados muestran que rociar partículas de sulfato en la atmósfera podría enfriar la Tierra a medida que las emisiones de gases de efecto invernadero continúan provocando el aumento de la temperatura global, pero estas estrategias conllevan peligrosos efectos secundarios, como el agotamiento de la capa de ozono, la lluvia ácida y los cambios en los patrones climáticos.

La geoingeniería solar, aunque suene a ciencia ficción, no fue concebida desde el aire. Los científicos se inspiraron en un acontecimiento natural: la erupción del Monte Pinatubo en 1991 en Filipinas. El segundo estallido volcánico más importante del siglo XX, arrojó cenizas y 17 megatones de dióxido de azufre a 35 km hacia el cielo. Durante varios años, el SO2 permaneció en la atmósfera, reaccionando con los productos químicos de la atmósfera para formar partículas de aerosol de sulfato que reflejaban la luz solar y provocaban una caída de la temperatura global de 0,5 °C. Una vez que esas partículas finalmente descendieron a la Tierra, la temperatura se recuperó.

Erupción del volcán Pinatubo en 1991, Filipinas. Los efectos de la erupción se sintieron en todo el mundo. Envió grandes cantidades de gases hacia la estratósfera más que cualquier otra erupción desde la del Krakatoa, en Indonesia, en 1883. Los gases emitidos produjeron una capa global de ácido sulfúrico durante los meses siguientes. Las temperaturas globales bajaron aproximadamente 0,5 °C , y la destrucción de la capa de ozono aumentó de manera importante.

Siguiendo el ejemplo de la explosión tropical, algunos científicos desarrollaron modelos climáticos que simularon lo que sucedería si los sulfatos fueran rociados en la atmósfera en el ecuador, donde se encuentra el Monte Pinatubo. Otros fueron aún más simples, eliminando los sulfatos de la ecuación y simulando lo que pasaría si pudiéramos bajar el brillo del sol con un interruptor de atenuación imaginario. Ambos tipos de modelos revelaron que las temperaturas globales descenderían; sin embargo, el enfriamiento ocurriría de manera desigual, siendo mayor en los trópicos y menor en las áreas árticas.

El pasado otoño, varios de estos investigadores en modelos de geoingeniería solar que participaron en una colaboración que incluía a cuatro instituciones, presentaron uno de los modelos de geoingeniería solar más avanzados. El modelo tiene en cuenta la química atmosférica compleja, la dinámica atmosférica y la formación de aerosoles de sulfato y, por primera vez, permite a los científicos diseñar, en lugar de sólo predecir, resultados climáticos específicos (J. Geophys. Res.: Atmos. 2017, DOI: 10.1002/2017jd026888).

Según el modelo, que asume que los seres humanos no van a tener éxito en la reducción de sus emisiones, si la geoingeniería solar comenzara en 2020, las temperaturas globales podrían estabilizarse en el nivel de ese año para el resto del siglo. La estrategia consistiría en rociar cantidades cada vez mayores de dióxido de azufre en cuatro lugares situados a 15° y 30° al norte y al sur del ecuador. Para 2090, según los cálculos del equipo, necesitaríamos rociar anualmente una cantidad de SO2 equivalente a hasta la mitad del volumen total que la quema de combustibles fósiles libera a nivel mundial cada año.

«No es algo que veamos como un plan B», enfatiza Simone Tilmes, una de las coautoras del estudio y científica del proyecto en el Centro Nacional de Investigación Atmosférica de Estados Unidos. Todavía necesitamos reducir las emisiones de carbono, dice Tilmes, pero este planteamiento podría mantener las temperaturas bajas mientras lo hacemos. El mundo puede tener sólo de cinco a 10 años más para aprobar un plan de lucha contra el cambio climático, dice, antes de que seamos incapaces de cumplir los objetivos del Acuerdo de París. «Para mí, ni siquiera se trata de ganar tiempo; ya hemos perdido el tiempo que podríamos tener que recuperar», dice.

Pero por cada grado que bajan las temperaturas al rociar con aerosoles de sulfato, el equipo ve varios posibles efectos secundarios peligrosos.

Aunque las partículas de sulfato reflejan y dispersan la luz, también pueden absorber la radiación solar, calentando la estratosfera inferior y modificando el transporte de productos químicos atmosféricos, lo que produce efectos impredecibles sobre los patrones meteorológicos y las precipitaciones, señalan los investigadores. Las partículas grandes de sulfato, que se formarían a medida que el SO2 se vierte continuamente en el aire, no son tan buenas como las partículas pequeñas que se encuentran en las partes altas de la atmósfera y que reflejan la luz, y pueden caer del cielo más rápidamente, potencialmente como lluvia ácida, agregan.

Podría decirse que el efecto secundario más grave es que los sulfatos podrían llevar a la degradación de la capa de ozono. La pérdida de ozono ocurre cuando las moléculas halógenas, como el ácido clorhídrico y el nitrato de cloro, se transforman en radicales halógenos que destruyen el ozono. Las partículas de sulfato aceleran este proceso al proporcionar una superficie para la formación de radicales.

Los efectos secundarios de la geoingeniería solar podrían ser numerosos, desde el momento en que se despliega un proceso de tratamiento atmosférico hasta el momento en que se interrumpe abruptamente. Debido a que la geoingeniería solar sólo aborda los síntomas y no la causa del cambio climático -el tratamiento para detener los gases de efecto invernadero- podría tener consecuencias devastadoras, dice el ecologista Christopher Trisos, becario postdoctoral del Centro Nacional de Síntesis Socioambiental.

Las temperaturas globales se volverían a elevar tan rápidamente a los niveles anteriores que muchas especies podrían tener dificultades para sobrevivir, dice.

Trisos fue coautor de un estudio que evaluó la velocidad, llamada velocidad climática, a la que una especie tendría que moverse para alejarse de los efectos negativos del clima si la geoingeniería solar se interrumpiera abruptamente (Nat. Ecol. Evol. 2018, DOI: 10.1038/s41559-017-0431-0).

Las especies tendrían que moverse, en promedio, de dos a seis veces más rápido de lo que requeriría el cambio climático sin la geoingeniería solar para escapar de los efectos dañinos del clima en su hábitat, según el modelo. Los monos aulladores, por ejemplo, pueden migrar a un nuevo hábitat a aproximadamente a una velocidad de 1 km/año. Si las temperaturas cambiaran drásticamente después de la terminación de la geoingeniería solar, tendrían que moverse a 10 km/año.

Ante estos riesgos, los ecologistas han emitido una de las pocas directivas sobre geoingeniería. En 2010, el Convenio sobre la Diversidad Biológica, un instituto de las Naciones Unidas con más de 190 miembros -excluyendo a Estados Unidos- emitió lo que equivale a una moratoria sobre cualquier actividad de intervención climática a gran escala, incluyendo la geoingeniería solar o la captura de carbono, hasta que haya suficiente evidencia científica para justificar tales estrategias.

La decisión, sin embargo, permite que experimentos de investigación a pequeña escala, como el experimento con globos de Harvard, avancen en un intento de recopilar esas evidencias.

Avanzando

Mientras que los estudios con modelos han explorado los efectos de los sulfatos en la estratosfera, los investigadores también han estado investigando las posibles consecuencias de otro enfoque de geoingeniería solar que se aleja de las partes altas de la atmósfera.

Esta estrategia apunta un poco más bajo en las nubes. Llamadas nubes marinas brillantes, el planteamiento se inspiró en los portacontenedores, cuyos gases de escape crean nubes que, a menudo, tienen cientos de kilómetros de largo y que se denominan «trayectoria de los barcos» mientras cruzan el océano. Estas trayectorias de los barcos reflejan la luz del sol, pero también pueden perturbar las precipitaciones de manera impredecible.

En lugar de usar los gases de escape, los investigadores argumentan que la aspersión de agua de mar, que es más segura, también puede hacer el trabajo. Investigadores involucrados con el Proyecto Nubes Marinas Brillantes, una colaboración entre científicos de la atmósfera, ingenieros y científicos sociales, ha desarrollado una boquilla especial de alta presión que expulsa partículas de aerosol de agua salada de tamaño nanométrico al cielo. Para generar una sola trayectoria de barco, dice Robert Wood, un colaborador de la Universidad de Washington, 500 de estas boquillas tendrían que ser agrupadas e instaladas en cada barco especialmente diseñado, un recurso que requiere de más fondos. El equipo ha estado esperando financiación durante bastante tiempo, dice Wood, estimando que podría tardar 10 o 20 años más. «No estoy conteniendo mientras tanto la respiración», dice.

Cómo la Geoingeniería solar podría enfriar el planeta

Wood reconoce los temores que muchos tienen sobre el riesgo moral de la geoingeniería solar, pero no cree que el desarrollo de una tecnología signifique necesariamente su uso. «No estoy haciendo esto para probar que funciona», dice. En cambio, está tratando de demostrar que no funciona, lo cual, según él, también puede revelar información útil.

Otros laboratorios, como los de Keutsch y su colaborador, el defensor de la geoingeniería David Keith, que también trabaja en Harvard, han investigado alternativas químicas a los aerosoles de sulfato. «Es un gran problema químico», dice Keutsch.

En el laboratorio, Keutsch y sus colegas esperan encontrar partículas capaces de atrapar menos calor en la atmósfera y de reflejar más luz hacia el cielo. Entre los candidatos químicos están el diamante, el dióxido de titanio y el carbonato de calcio. Debido a que es inerte, el diamante tiene las mejores propiedades, pero su precio es muy elevado. Según los investigadores, el TiO2 puede resultar problemático, ya que el compuesto es un fotocatalizador conocido y, por lo tanto, podría causar reacciones secundarias no deseadas.

Eso deja al CaCO3 barato y fácilmente disponible. Según los modelos del equipo, el CaCO3 puede calentar la estratosfera inferior una décima parte de la cantidad de lo que lo hacen los aerosoles de sulfato, y puede contrarrestar la pérdida de ozono neutralizando los ácidos emitidos por los seres humanos (Proc. Natl. Acad. Sci. USA 2016, DOI: 10.1073/pnas.1615572113).

V. Faye McNeill, un químico de la atmósfera que estudia el impacto de las partículas de aerosol en el clima de la Tierra en la Universidad de Columbia, advierte que queda por ver cómo el CaCO3 interactuará con el ozono estratosférico en la realidad. McNeill contrasta estas partículas de calcita con aerosoles de sulfato, que han sido estudiados a fondo porque se encuentran naturalmente en la atmósfera y porque fueron emitidos en abundancia después de la erupción del Monte Pinatubo. «Hasta ahora lo que he visto en la literatura son conjeturas razonables y educadas sobre la química estratosférica heterogénea del CaCO3», dice, «pero necesita ser respaldado con datos de laboratorio».

El equipo de Harvard está estudiando actualmente partículas del material en el laboratorio, utilizando reactores de flujo para exponer el CaCO3 a diversos gases atmosféricos. Otra idea es cubrir las partículas de CaCO3 con compuestos que harían que sus superficies sean menos atractivas para la formación de radicales que agotan la capa de ozono.

El equipo planea probar cantidades extremadamente pequeñas de CaCO3 en su experimento al aire libre, programado para llevarse a cabo sobre Tucson, después de descargar partículas de hielo, un material de menor riesgo.

«El experimento en sí no afectará a nadie, pero tiene implicaciones para todos», dice Keutsch.

La gente ha expresado preocupación, y a veces emociones mucho más fuertes, acerca de este tipo de experimentos. Los teóricos de la conspiración de las Estelas Químicas, por ejemplo, quienes postulan que el gobierno ha estado envenenando al público con químicos esparcidos por aviones comerciales, han reaccionado de manera bastante ruidosa a la idea de rociar aerosoles en la atmósfera.

A lo largo de los años, Keith dice que ha recibido cientos de correos electrónicos de personas acerca de la geoingeniería solar, desde curiosidad educada hasta amenazas. Otros en el campo de la geoingeniería solar también han recibido correo llenos de odio e incluso amenazas de muerte, incluyendo a Douglas MacMartin de la Universidad de Cornell, quien testificó en la audiencia congresional del año pasado sobre geoingeniería. MacMartin informó que había visto un aumento en tales misivas el año pasado. «Existe el riesgo de que alguien salga herido», dice Keith.

Fue por la opinión pública en parte por lo que descarriló un intento de llevar a cabo un experimento de geoingeniería solar al aire libre en el Reino Unido en 2012. Llamado Stratospheric Particle Injection for Climate Engineering (Inyección de partículas estratosféricas para la ingeniería climática) o SPICE, el proyecto proponía bombear agua a través de una manguera de 1 km de longitud hasta un globo cautivo, que rociaría el agua a la atmósfera.

La controversia podría definitivamente detener la geoingeniería solar, dice Tim Kruger, gerente del Programa de Geoingeniería de Oxford y miembro de la junta directiva que decidió si SPICE sería financiado. Dice que en medio de la preocupación del público, el experimento finalmente se vino abajo después de que se reveló que otro miembro de la junta de financiación había presentado una patente sobre tecnología similar a uno de los investigadores de SPICE. Dado el claro conflicto de intereses y la reacción pública simultánea, el proyecto fue cancelado, dice Kruger.

El equipo de Harvard no tiene planes de patentar ninguna de las tecnologías del experimento, dice Keutsch. Pero sigue preocupado por la opinión pública. «Lo que no quiero que suceda es que digamos :’Oh, estamos listos para hacer el experimento’, y luego haya una reacción tan negativa que haga que la futura investigación en geoingeniería solar sea imposible durante mucho tiempo».

¿Quién decidirá?

Peter Frumhoff, director de ciencia y política de la Unión de Científicos Preocupados (Union of Concerned Scientists), fue coautor de un artículo de opinión el año pasado junto con Jennie Stephens, de la Universidad Northeastern, en el que detallaba las formas en que los investigadores en geoingeniería solar pueden progresar de manera responsable obteniendo el consentimiento informado del público.

Los científicos deberían crear un comité asesor independiente, algo que el equipo de Keutsch está en proceso de hacer, cuyas recomendaciones deberían tomarse en serio. Los investigadores también deben ser transparentes sobre las fuentes de financiación y restringir la financiación a las entidades que se comprometen a reducir drásticamente las emisiones de gases de efecto invernadero. Los científicos deberían incorporar en las conversaciones a un conjunto diverso de actores de la sociedad civil, especialmente aquellos que están en mayor riesgo, como los países en desarrollo, dice Frumhoff.

El artículo concluye que «la investigación en el campo de la geoingeniería solar no debe llevarse a cabo a menos y hasta que se haya establecido una mayor legitimidad social».

Varias partes han ofrecido una guía similar para la investigación responsable de la geoingeniería. En 2009, Kruger y algunos otros académicos idearon los «Principios de Oxford», y en 2015, los juristas elaboraron un código de conducta voluntario para la investigación en geoingeniería que ha sido actualizado recientemente por una iniciativa internacional llamada el Proyecto de Gobernanza de la Investigación en Geoingeniería.

«Hay fragmentos de gobernabilidad, pero la suma total no equivale a lo que se necesita», dice Janos Pasztor, ex subsecretario general de las Naciones Unidas para el cambio climático del Secretario General Ban Ki-moon.

Pasztor es el director ejecutivo de Carnegie Climate Geoengineering Governance Initiative (C2G2), un pequeño grupo que fomenta el debate y el desarrollo de marcos de gobernabilidad sobre la geoingeniería solar pero que no toma posición sobre el despliegue de estas estrategias.

Desde el año pasado, Pasztor y su equipo han estado discutiendo la geoingeniería solar con comunidades de todo el mundo, incluyendo países como Kenia y Sudáfrica, que hasta ahora no han sido parte de la conversación. Mientras que muchas de las personas con las que habla son positivas cuando se trata de aprender acerca de la geoingeniería solar, Pasztor dice, «Es un paso difícil pasar de positivo a proactivo.»

El equipo espera facilitar la presentación de una resolución en la Asamblea de las Naciones Unidas para el Medio Ambiente en Nairobi, Kenia, en marzo de 2019. Esa resolución serí aun llamamiento a los gobiernos a acordar no desplegar técnicas de geoingeniería solar hasta que los científicos entiendan mejor los riesgos y la sociedad esté de acuerdo en la gobernabilidad de la geoingeniería solar. Aunque algunos aspectos de la resolución podrían cambiar durante las negociaciones, dice Pasztor, el equipo espera que la acción evite cualquier decisión unilateral por parte de naciones deshonestas de desplegar la geoingeniería solar. Esto plantea un riesgo, dado el precio relativamente barato de las técnicas, estimado recientemente en unos 50.000 millones de dólares para el equipo inicial y luego en 12.500 millones de dólares cada año posterior (Earth’s Future 2018, DOI: 10.1002/2017ef000735).

«El manejo de esto es muy, muy difícil», dice Pasztor. «No es demasiado pronto para empezar a hablar de estos temas, incluso si estas tecnologías no fueran relevantes durante un par de décadas, porque ese es el tiempo que podría llevar construir el marco de gobernabilidad».

Sin embargo, quienes se oponen a la geoingeniería no creen que la gobernanza de la geoingeniería sea el tema principal. Linda Schneider, oficial superior de programas de la Fundación Heinrich Böll, un grupo de reflexión afiliado al Partido Verde de Alemania, encuentra problemático gran parte del discurso en torno a la geoingeniería.

«La mayoría de los investigadores en el campo parten del supuesto de que podríamos necesitar las técnicas de geoingeniería», dice, lo cual, en su opinión, da paso a la pregunta básica de si la geoingeniería debería realizarse. Schneider dice que fue una de las pocas voces no científicas y críticas entre los asistentes a la Conferencia de Ingeniería Climática 2017 en Berlín en octubre, que atrajo principalmente a científicos físicos y sociales.

Schneider y la fundación dicen que es crítico enfocarse en la reducción de emisiones. En la conferencia, dirigió una sesión en la que presentó una vía para limitar el aumento de la temperatura mundial a 1,5 °C, una versión más estricta del objetivo del Acuerdo de París. El plan implica una reducción radical de las emisiones y la ausencia de geoingeniería. La sesión esencialmente se transformó en una «gran pelea», dice.

Como Schneider abogó por respuestas climáticas sin geoingeniería, los proponentes criticaron los escenarios que se basaban sólo en la reducción drástica del carbono como políticamente poco realistas. «Creo que lo que les molestó es que se vieron obligados a enfrentarse a sus propios valores políticos que subyacen a su propia investigación», dice Schneider. Los científicos quieren que sus experimentos se desarrollen fuera del contexto real y político, argumenta.

Su grupo se opone a cualquier investigación de geoingeniería solar al aire libre, incluyendo el experimento con globos de Harvard. «Si siguen adelante, definitivamente sería algo que desafiaríamos pública y abiertamente», dice.

Schneider dice que incluso si el grupo de Harvard reuniera un consejo asesor independiente, se pregunta si los miembros de un consejo selecto serían verdaderamente independientes. Frumhoff, de la Unión de Científicos Preocupados, está de acuerdo en que es una preocupación legítima, pero también se pregunta quién más podría formar una junta.

Frumhoff dice que la discusión es increíblemente difícil, pero eso no significa que debamos rehuirla. «La comunidad científica está luchando con todo tipo de tecnologías que no nos tomábamos en serio hace unos años», dice. «Ahora es el momento de tener esta conversación porque viene hacia nosotros.»

Por ahora, es probable que la geoingeniería solar siga siendo una conversación polémica. Cziczo, del MIT, dice que está dispuesto a equivocarse sobre la geoingeniería solar, pero que «nadie me ha demostrado que sea una buena idea».

Cziczo y Keutsch son colegas en el mismo campo y en realidad son buenos amigos. Incluso han discutido sus puntos de vista opuestos. «No estoy seguro de que ninguno de los dos pueda convencer al otro», dice Cziczo.

Sin embargo, piensa que es importante enseñar la ciencia de la geoingeniería y le dedica algunas conferencias en un curso especial para estudiantes universitarios del MIT basado en los informes de geoingeniería de las Academias Nacionales. Señala que estos estudiantes serán los que se ocuparán del impacto de las decisiones climáticas que tome su generación.

Después de la lección, le gusta preguntar a la clase si elegirían una opción de geoingeniería solar de bajo costo o si pagarían más por reducir las emisiones para responder al cambio climático. Dice que puede ser la forma en que enseña el tema, pero «los estudiantes siempre eligen abordar el problema subyacente».

—————————————

El Informe plagiado y fraudulento utilizado para justificar la guerra de Irak

Por Glen Rangwala y el Prof. Michel Chossudovsky, 22 de marzo de 2018

Global Research

Hace 15 años de la ilegal invasión de Irak, el 21 de marzo de 2003.

Si bien el Informe de la Comisión de Investigación Chilcot (Chilcot Inquiry) se publicó en 2016, hay que señalar que la mayoría de las pruebas dudosas que estuvieron a disposición de Tony Blair y George W. Bush son de antes del inicio de la guerra de Irak en marzo de 2003.

El 5 de febrero de 2003, el Secretario de Estado, Colin Powell, presentó al Consejo de Seguridad de la ONU un informe oficial de inteligencia sobre las armas de destrucción masiva en Irak, que contenía información falsa y citas plagiadas.

El 6 de febrero de 2003, al día siguiente de la histórica presentación del Secretario de Estado Colin Powell ante el Consejo de Seguridad de las Naciones Unidas, el Dr. Glen Rangwala, profesor de Cambridge, reveló en el Canal 4 de la televisión británica pruebas contundentes que refutaban el informe oficial de inteligencia de Colin Powell:

«Quisiera llamar la atención de mis colegas sobre el excelente documento que el Reino Unido distribuyó…». . . que describe con exquisito detalle las actividades de engaño por parte de los iraquíes». (Colin Powell, Consejo de Seguridad de la ONU, 5 de febrero de 2003)

Powell se refería a «Irak, su infraestructura de encubrimiento, engaño e intimidación», publicado el 30 de enero de 2003.

Según Rangwala, el documento de la inteligencia británica era falso. No había sido preparado por la inteligencia británica. Fue copiado y pegado de Internet por miembros del personal de Tony Blair:

Los autores de Downing Street afirman que se basaron «en una serie de fuentes, incluido material de inteligencia» (p.1, primera frase). De hecho, copiaron material de al menos tres autores diferentes sin ningún crédito. De hecho, plagiaron, cortaron y pegaron directamente o casi citaron.

Un análisis textual cercano sugiere que los autores del Reino Unido tenían poco acceso a fuentes de inteligencia de primera mano y, en cambio, fundamentaron su trabajo en trabajos universitarios, que tergiversaron selectivamente. Algunos de los documentos utilizados estaban considerablemente desfasados. Esto lleva al lector a preguntarse sobre la fiabilidad y veracidad del documento de Downing Street”.

Se trataba de un documento falso preparado bajo las instrucciones del primer ministro Blair con el fin de elaborar una justificación «creíble» para librar la guerra contra Irak.

El análisis de Rangwala fue más que un arma humeante. Reveló la Gran Mentira. Invalidó la presentación de Colin Powell ante el Consejo de Seguridad de la ONU. Tuvo que ser acallado.

En muchos aspectos, la revelación de Rangwala fue mucho más importante que la filtración del Memorando Secreto de Downing Street de julio de 2002:

C informó sobre sus recientes conversaciones en Washington. Hubo un cambio perceptible en la actitud. La acción militar se consideraba ahora inevitable. Bush quería expulsar a Saddam, a través de una acción militar, justificada por la conjunción del terrorismo y las armas de destrucción masiva. Pero la inteligencia y los hechos se estaban definiendo en torno a la política. El NSC no tuvo paciencia con la hoja de ruta de la ONU, sin entusiasmo por publicar material sobre el historial del régimen iraquí. En Washington apenas hubo debates sobre las secuelas de la acción militar”.

Los «hechos relativos a las armas de destrucción masiva» tenían que estar «documentados». ¿Se negó la inteligencia británica a cumplir con las demandas de Tony Blair de elaborar por la vía rápida un informe que «arreglara los hechos»? El análisis de Rangwala confirma que la inteligencia británica no estuvo implicada en lo que podríamos describir como el «Informe Negligente».

Los «hechos» fueron recopilados a toda prisa (no por el MI6) sino por el personal de relaciones públicas de Tony Blair, que casualmente cometió plagio y fraude político en apoyo de una agenda militar criminal.

El informe se finalizó una semana antes de la presentación de Colin Powell ante el Consejo de Seguridad de la ONU; los «hechos» y las citas de referencia fueron copiadas y pegadas por miembros del gabinete de Tony Blair desde Internet e insertados en un documento oficial y autorizado.

El plagio se había convertido en un medio para justificar la guerra contra Irak.

La revelación de Rangwala fue la «verdad tácita». Con la excepción de Channel 4 y The Guardian, no fue objeto de cobertura informativa por parte de los principales medios de comunicación tanto antes como después de la invasión de Irak en marzo. Tuvo que ser acallado. La invasión del Iraq ya estaba programada para marzo de 2003.

El papel de Colin Powell en la planificación de la guerra contra Irak

En retrospectiva, los hallazgos de Rangwala también ponen de relieve el funesto y cómplice papel de Colin Powell, quien organizó las reuniones de Crawford Texas a principios de abril de 2002 entre Bush y Blair, como lo confirman los correos electrónicos filtrados recientemente (ver abajo).

Lo que estos correos electrónicos sugieren es que a Colin Powell se le había confiado la tarea de preparar el escenario para la guerra contra Irak, inicialmente en las reuniones de Bush-Blair Crawford del 5 al 7 de abril de 2002, que condujeron a su presentación del expediente de la inteligencia británica sobre las presuntas armas de destrucción masiva de Irak en el Consejo de Seguridad de la ONU el 5 de febrero de 2003.

Para que no olvidemos que Colin Powell jugó un papel entre bastidores en el caso Irán Contra.

Las reuniones de Crawford tenían la intención de planear la guerra contra Irak.

¿Quiénes estuvieron presentes en las reuniones de Crawford? Los informes confirman que Colin Powell, Donald Rumsfeld, Paul Wolfowitz, Condoleeza Rice estaban entre los presentes.

Tras la invasión de Irak, el plagiado «Dossier de la inteligencia británica sobre Irak» presentado al Consejo de Seguridad de la ONU por el (ex) Secretario de Estado Colin Powell era, por así decirlo, «olvidado».

No obstante, la cuestión del plagio confirma sin lugar a dudas las acusaciones de crímenes de guerra contra George W. Bush y Tony Blair.

El informe de Rangwala era conocido por el parlamento británico. Se presentó tres meses después del inicio de la guerra: en junio de 2003, Rangwala presentó sus conclusiones al Comité Selecto de Asuntos Exteriores de la Cámara de los Comunes. (véase más abajo el texto completo).

No hubo continuación. El informe de Rangwala confirmó la naturaleza criminal de la guerra de Estados Unidos contra Irak, que  causó más de 2 millones de muertes de civiles.Plagio y armas de destrucción masiva en Irak: El expediente de la inteligencia británica en Irak se basa en artículos universitarios reutilizados.

Plagio y armas de destrucción masiva en Irak: El expediente de la inteligencia británica en Irak se basa en artículos universitarios reutilizados

Por Glen Rangwala

A continuación se presenta el texto presentado por el Dr. Rangwala a la Comisión Especial de Relaciones Exteriores de la Cámara de los Comunes. Se presentó en junio de 2003, tras la invasión y ocupación de Irak.

http://www.parliament.the-stationery-office.co.uk/pa/cm200203/cmselect/cmfaff/813/813we18.htm

LA PRESENTACIÓN DEL EXPEDIENTE EL 30 DE ENERO DE 2003

1. El expediente de 19 páginas, titulado «Irak, sus infraestructuras de encubrimiento, engaño e intimidación», se publicó el 30 de enero de 2003. El documento comienza con la declaración de que:

«Este informe se basa en una serie de fuentes, incluyendo material de inteligencia (…)

2. La afirmación de que los organismos de inteligencia participaron en la elaboración del expediente fue formulada de manera más explícita por el Primer Ministro Blair cuando anunció la publicación del expediente en la Cámara de los Comunes el 3 de febrero de 2003:

» Publicamos más información el fin de semana sobre la infraestructura de encubrimiento. Obviamente es difícil cuando publicamos informes de inteligencia, pero espero que la gente tenga algún sentido de la integridad de nuestros servicios de seguridad. No somos nosotros los que publicamos esto, ni damos esta información, ni nos la inventamos. Es la información que los servicios de inteligencia están recibiendo, y se la estamos pasando a la gente».

www.parliament.the-stationery-office.co.uk

UNA REVISIÓN DEL CONTENIDO DEL INFORME DEL 30 DE ENERO DE 2003

Fuentes

3. La mayor parte del documento de 19 páginas (págs. 6-16) se copia directamente sin el reconocimiento de tres fuentes diferentes que están en Internet. La fuente más utilizada es un artículo de la revista israelí en línea Middle East Review of International Affairs (septiembre de 2002), titulado «Iraq’s Security and Intelligence Network: A Guide and Analysis».

http://meria.idc.ac.il/journal/2002/issue3/jv6n3a1.html

4. El autor del artículo es el Sr. Ibrahim al-Marashi, estudiante de posgrado del Monterey Institute of International Studies, California, que está terminando un doctorado en la Universidad de Oxford. Me ha confirmado que no se le pidió permiso; de hecho, ni siquiera conocía el documento británico hasta que me puse en contacto con él el 4 de febrero para preguntarle si se le había pedido permiso.

5. Además del trabajo del Sr. Marashi, también se utilizan dos artículos de la revista especializada en seguridad Jane’s Intelligence Review. Los resúmenes en línea de los artículos del Sr. Sean Boyne en 1997 y del Sr. Ken Gause en 2002 se encuentran en el sitio web GlobalSecurity.org, en:

http://globalsecurity.org/intell/world/iraq/

Estos textos también se fusionaron en parte en el informe del Reino Unido.

6. El hecho de que estas fuentes fueron copiadas es más claro por los errores tipográficos y los usos anómalos de la gramática en los artículos originales que se incorporan en el documento de Downing Street. Por ejemplo, el Sr. Marashi escribió:

«Saddam nombró, a Sabir Abd al-Abdiz al-Duri como jefe (…)»

Hay una coma mal colocada después de la segunda palabra. En la página 13, el expediente británico incorpora la misma coma errónea:

«Saddam nombró, a Sabir Abd al-Abdiz al-Duri como jefe (…)»

7. Debido a que los textos de estos tres autores se copian directamente, también resulta en una proliferación de diferentes transliteraciones (por ejemplo, diferentes ortografías del partido Baath, dependiendo de qué autor se esté copiando).

Modificaciones de los artículos originales

8. Las únicas excepciones al copia y pega fueron los ajustes de frases específicas. Por ejemplo, la mayor parte de la página 9 sobre las funciones del Mukhabarat (Inteligencia General) está copiada directamente del artículo del Sr. Marashi. Sin embargo, Marashi escribe sobre el papel del Mukhabarat en:

«controlando las embajadas extranjeras en Irak».

Que se convierte en el Informe británico:

«espiando embajadas extranjeras en Irak».

Del mismo modo, en la misma página, Marashi escribe que el Mukhabarat tuvo un papel en:

«ayudando a grupos de oposición en regímenes hostiles»

Que en el Informe británico se convierte en:

«apoyando a organizaciones terroristas en regímenes hostiles».

9. Otro ejemplo es la sección sobre «Fedayeen Saddam» (Los que se autosacrifican de Saddam). La mayor parte de este texto ha sido copiado del artículo de Sean Boyne de 1997. Sin embargo, Boyne escribe que el personal de esta organización es:

«reclutados de regiones leales a Saddam», y se refiere a su agrupación original como «unos 10.000-15.000 ‘matones y campesinos'».

10. Esto se convierte en el texto del gobierno británico, en las páginas 15-16, una referencia a cómo es su personal:

«reclutados a la fuerza en regiones conocidas por su lealtad a Saddam». . . «unos 10.000-15.000 matones.»

11. La referencia en el artículo del Sr. Boyne a cómo la organización estaba formada por «matones y patanes» fue esquivada de sus últimas tres palabras en el informe del Reino Unido, quizás para dar una imagen más amenazadora de la organización que la contenida en el artículo original.

12. Los números también aumentan o se redondean hacia arriba. Así, por ejemplo, la sección sobre «Fedayeen Saddam» (p. 15-16) está copiada directamente del artículo de Boyne, casi palabra por palabra. La única diferencia sustancial es que el Sr. Boyne estima que el personal de la organización es de 18.000 a 40.000 personas (Ken Gause, en otro artículo que fue copiado sustancialmente, estima que el personal en la región es de 10.000 a 40.000 personas). En cambio, el expediente británico escribe «30.000 a 40.000». Lo mismo ocurre con la descripción de la Dirección de Inteligencia Militar.

Errores

13. Hay al menos un grave error sustantivo en el texto británico, en la página 14, sobre la organización iraquí Servicio de Seguridad Militar (al-Amn al-Askari). Después de dos párrafos iniciales copiados del artículo de Marashi de 2002, el resto del texto se ha tomado de la descripción de Sean Boyne en su artículo de 1997 sobre una organización totalmente diferente llamada el Servicio General de Seguridad (al-Amn al-Amm). Es decir, mezcla las descripciones de dos organizaciones diferentes.

14. El resultado es una confusión que hace que la descripción sea incoherente. La descripción del Servicio de Seguridad Militar (al-Amn al-Askari) comienza relatando cómo se creó esta organización en 1992 (en una sección copiada de Marashi). A continuación se describe cómo el Servicio de Seguridad Militar trasladó su cuartel general en 1990 (en un artículo copiado de Boyne sobre las actividades del Servicio de Seguridad General), dos años antes incluso de que se creara la organización.

15. Más adelante en la misma sección, el informe del Reino Unido afirma que el jefe del Servicio de Seguridad Militar es Taha al-Ahbabi. Esto es de la descripción de Boyne del Servicio General de Seguridad. De hecho, el Servicio de Seguridad Militar estaba encabezado por Thabet Khalil cuando se publicó el expediente.

Más comentarios

16. La información contenida en el informe del Reino Unido se presenta como una declaración precisa del estado actual de las organizaciones de seguridad iraquíes. Sin embargo, puede que no sea nada de eso. El Sr. Marashi, el autor real e involuntario de gran parte del documento, se refiere en su artículo a su fuente principal como los documentos recogidos por las Fuerzas de la Coalición en 1991, y que ahora son conservados por la organización con sede en Massachusetts, el Proyecto de Investigación y Documentación sobre Irak. Se centra en las actividades de los organismos de inteligencia de Irak en Kuwait en el período comprendido entre agosto de 1990 y enero de 1991, ya que este es el tema de su tesis. En consecuencia, gran parte de la información que se presenta como pertinente sobre la forma en que los organismos iraquíes colaboran actualmente con la UNMOVIC tiene 12 años de antigüedad.

17. Cuando el documento se publicó por primera vez como un documento de Microsoft Word, comprobé las propiedades del texto en el menú Archivo. Reveló a los autores del texto como P. Hamill, J. Pratt, A. Blackshaw y M. Khan. Esos nombres se eliminaron en cuestión de horas del archivo descargable. Sin embargo, en colaboración con periodistas, desde entonces he podido comprobar quiénes estas personas. La identidad de los autores es la siguiente:

Paul Hamill, un funcionario del Ministerio de Asuntos Exteriores;

John Pratt, un funcionario de la Unidad de Comunicaciones Estratégicas del Primer Ministro;

Alison Blackshaw, asistente personal de Alastair Campbell;

Mustaza Khan, editor de noticias del sitio web de 10 Downing Street.

EL ORDEN DEL INFORME

18. El expediente está ordenado de la siguiente manera:

La página 1.- es el resumen.

pp 2-5 consiste, en primer lugar, en una repetición de los comentarios de Hans Blix, Presidente Ejecutivo de UNMOVIC, al Consejo de Seguridad en enero sobre las dificultades que estaban encontrando. A continuación se formulan otras afirmaciones sobre las actividades de al-Mukhabarat. Estas afirmaciones no están respaldadas, y en algunos casos han sido específicamente negadas por Hans Blix. Por ejemplo, el expediente del Reino Unido afirma en la página 3 que:

«Los viajes son supervisados por oficiales de seguridad destacados en la ruta si tienen información previa. Cualquier cambio de destino se notifica con antelación por teléfono o radio para que se anticipe la llegada. La fiesta de bienvenida es un regalo».

Esto puede contrastarse con la evaluación de Hans Blix del 14 de febrero de 2003:

«Desde que llegamos a Irak, hemos llevado a cabo más de 400 inspecciones en más de 300 sitios. Todas las inspecciones se realizaron sin previo aviso, y el permiso de acceso casi siempre se concedió con prontitud. En ningún caso hemos visto pruebas convincentes de que la parte iraquí supiera de antemano que vendrían los inspectores».

http://www.un.org/Depts/unmovic/blix14Febasdel.htm

Del mismo modo, el informe del Reino Unido afirma en la página 3 que:

«Los escoltas están entrenados, por ejemplo, para iniciar largas discusiones con otros funcionarios iraquíes `en nombre de la UNMOVIC’, mientras que cualquier evidencia incriminatoria se esconde apresuradamente entre bastidores».

Por el contrario, el Dr. Blix se refiere en la misma presentación del 14 de febrero que:

«observamos que el acceso a los sitios hasta ahora ha sido sin problemas, incluyendo aquellos que nunca habían sido declarados o inspeccionados, así como a los sitios presidenciales y residencias privadas».

P 6.- es una versión simplificada del esquema del Sr. Marashi en: http://cns.miis.edu/research/iraq/pdfs/iraqint.pdf

p 7 .- se copia (arriba) del Sr. Gause (en la Secretaría Presidencial), y (en el centro y abajo) del Sr. Boyne (en el Consejo de Seguridad Nacional).

P 8.- se copia íntegramente del Sr. Boyne (en el Consejo de Seguridad Nacional).

P 9.- se copia del Sr. Marashi (en al-Mukhabarat), excepto la última sección, que es insustancial.

P 10.- se ha copiado íntegramente del Sr. Marashi (sobre el Servicio de Seguridad General), excepto la última sección, que es insustancial.

La página 11.- está copiada íntegramente del Sr. Marashi (sobre Seguridad Especial), excepto en la sección superior (sobre Seguridad General), que es insustancial.

P 12.- se copia íntegramente del Sr. Marashi (sobre Seguridad Especial).

P 13.- se copia del Sr. Gause (sobre Protección Especial) y del Sr. Marashi (Inteligencia Militar).

P 14.- se copia del Sr. Marashi (dos primeros párrafos) y luego se copia erróneamente del Sr. Boyne (sobre seguridad militar). La última sección, sobre la Guardia Republicana Especial, está copiada del Sr. Marashi.

P 15 .- se copia de los Sres. Gause y Boyne (sobre el proyecto al-Hadi / proyecto 858).

pp 15-16 .- se copia de Boyne (en Fedayeen Saddam).

p 16: La sección final, sobre la Oficina de Jefes Tribales, parece ser copiada de Anthony H. Cordesman, «Key Targets in Iraq», febrero de 1998, http://www.csis.org/stratassessment/reports/iraq_argets.pdf, pg. 8

Páginas 17 a 19: hacer afirmaciones generales sobre los derechos humanos en Irak.

Dr. Glen Rangwala

Newnham College

Cambridge

16 de junio de 2003

————————————

La mafia global del agua: un conglomerado de instituciones y tecnócratas

Por Peter Koenig, 23 de marzo de 2018

Global Research

El 22 de marzo de 2018 se celebró el Día Mundial del Agua, pero también es la semana en la que se celebró el 8º Foro Mundial del Agua (WWF-8), del 18 al 23 de marzo de 2018, en Brasilia. No es una coincidencia que Brasil haya sido elegida para la celebración de este Formo Mundial del Agua, frente a ese otro foro equivalente que reúne a las élites corporativas y políticas, el WEF, el Foro Económico Mundial, en Davos. Los dos están íntimamente relacionados e interconectados, como veremos.

El WWF está organizado por el Consejo Mundial del Agua, una instancia más para confundir y no saber quién es quién en el circo de las élites que intentan controlar una fuente vital: el agua dulce. WWF se enorgullece en una declaración de su honrosa misión:

«Promover la toma de conciencia, fomentar el compromiso político e impulsar la adopción de medidas en relación con los problemas críticos del agua en todos los niveles, a fin de facilitar la conservación, la protección, el desarrollo, la planificación, la gestión y el uso eficientes del agua en todas sus dimensiones sobre una base ambientalmente sostenible en beneficio de toda la vida».

Ahí tenemos a Nestlé, Coca Cola, PepsiCo, Dow Chemicals y otras multinacionales con fuertes intereses en el agua, como Veolia, Suez (Francia), Thames (Reino Unido), Bechtel (Estados Unidos), Petrobras, y otros cientos de ellas, que se unen con el Banco Mundial, el Banco de Desarrollo Americano (BID), diferentes organismos de la ONU y muchos donantes multi y bilaterales, ONG y Corporaciones, que dicen trabajar por el bien de la humanidad, por el bien de cientos de millones de personas que de manera reiterada se ven privadas de agua potable a precios asequibles debido a una ola de privatizaciones del agua (Organizaciones y simpatizantes de WWF).

Otra Instancia destacada de este foro internacional sobre el agua es el Water Resources Group (WRG), creada por el Banco Mundial. Su principal objetivo es alcanzar el Objetivo de Desarrollo Sostenible (ODS-6): “Agua potable y saneamiento”. El liderazgo de esta organización está en manos de un grupo de personas e instituciones relacionadas entre sí, como los responsables de WEF, Nestlé, Coca-Cola, PepsiCo, Dow Chemicals, la ONU (PNUD)… y la Asociación Mundial del Agua (GWP), una instancia más dentro del laberinto de la mafia global , creada por los sospechosos habituales, el Banco Mundial, la ONU (PNUD) y una serie de agencias de desarrollo multilaterales y bilaterales, cuyo enfoque prioritario es el agua…

Y no olvidemos que también está presente en el WWF el Centro Internacional de Evaluación de Recursos de Aguas Subterráneas (IGRAC), que forma parte de la UNESCO, con sede en el Instituto Delft para la Educación sobre el Agua, cuya misión es la de compartir información sobre los recursos hídricos subterráneos de todo el mundo para protegerlos y dirigido fundamentalmente a la evaluación de acuíferos transfronterizos y el control de las aguas subterráneas.

En términos generales, el WWF está formado por este complejo y colosal conglomerado de instituciones y tecnócratas que poco a poco están asumiendo el control de los recursos mundiales de agua dulce. Esto está ocurriendo delante de nuestros ojos y bajo un logotipo de promoción aparentemente anodino: PPP= Public Prive Partnership (Asociaciones Público-Privadas), que en realidad significa que los recursos públicos se ponen a disposición del sector privado, tanto las infraestructuras como los recursos hídricos para ser explotados con fines lucrativos en detrimento de la gente, que pagó las infraestructuras y cuya vida depende de este recurso vital, el agua.

La privatización de los recursos de agua dulce es un delito, pero es lo que está en juego. Basta con ver quién está representado de manera destacada en el Water Resources Group, creado por el Banco Mundial, IFC, International Finance Corporation, la rama de desarrollo del sector privado del Grupo del Banco Mundial.

Más de la mitad de los españoles beben agua gestionada por una firma privada. Y ese negocio privatizado o semiprivatizado está en manos de tres o cuatro gigantes. Aguas de Barcelona, Agbar, controla el 54% del sector a través su filial Aquagest. FCC-Vivendi tiene otro 23% en manos de Aqualia. La francesa Bouygues-Saur domina otro 13% con su participación en Gestagua. Y ACS, con su filial Urbaser, se queda cerca de otro 7%. El 3% restante está repartido. La Voz de Galicia

El resultado de estas reuniones, a menudo repetitivas, es prácticamente nulo: una letanía de recomendaciones y resoluciones cuya aplicación nunca ven la luz del día. Imagínense el tremendo coste anual de esta farsa: los viajes en clase ejecutiva, comidas y alojamiento ( alojamientos de cinco estrellas), de los tecnócratas de alto nivel cruzando los mares y yendo de una conferencia a otra, millones y millones de dólares al año. ¿Cuántas personas podrían recibir agua potable y tener saneamiento seguro con estas cantidades de dinero?

El Programa Conjunto de Control de la OMS/UNICEF (JMP) estima (julio de 2017) que “aproximadamente 3 de cada 10 personas de todo el mundo, o sea 2.100 millones de personas, carecen de acceso a agua segura y fácilmente disponible en sus hogares, y 6 de cada 10, o sea 4.500 millones de personas, no disponen de un sistema sanitario administrado de forma segura”. Esto de una población mundial estimada en unos 7400 millones de personas.

 

El acuífero Guaraní (Fuente: Wikimedia Commons)

Maude Barlow, presidenta del Consejo Canadiense y de World Water Watch, y autora de “Blue Gold” (2002), “Blue Covenant” (2007) y de “Blue Future: Protección del agua para las personas y el planeta para siempre” (2013), hace referencia al WEF (Foro Económico Mundial) del año 2010 como la plataforma de lanzamiento bajo los auspicios del WRG de las asociaciones público-privadas, para involucrar principalmente a los gobiernos de los países en desarrollo en la reforma del sector del agua, es decir, ponerlo en manos de corporaciones privadas que gestionen el agua. Muchos de estos países no tienen otra opción si quieren seguir recibiendo fondos de “desarrollo” del Banco Mundial. Barlow también es fundadora del Proyecto Planeta Azul, que busca la protección de los recursos hídricos vitales, como el acuífero guaraní para las generaciones futuras.

Si nos detenemos en el Foro Económico Mundial de Davos (enero de 2018), el presidente brasileño Temer asistió a este foro. Temer, un delincuente corrupto, que debería estar en la cárcel en lugar de dirigir este maravilloso país, Brasil. El único propósito de su asistencia a Davos era el de contar a las élites que tiene intención de vender y privatizar las principales fuentes de recursos hídricos de su país.

¿Cómo una persona tan deshonesta se ha podido convertir en presidente de Brasil? Washington lo puso allí. Los oscuros intereses de Sion que representaban al sector financiero de los Estados Unidos quitaron del medio a una honesta Dilma Rousseff y pusieron en su lugar a Michel Temer, que en ese momento estaba acusado de varios delitos. La acusación fue obviada porque se suponía que tenía que ser presidente. Todavía no entiendo cómo pudo suceder esto, ya que Dilma tenía al ejército de su parte y podría haber declarado el estado de emergencia para detener la falsa parlamentaria de “cambio de régimen”, instigada por los Estados Unidos. Pero no lo hizo, lo cual puede indicar que fue amenazada.

Ahora sabemos cómo Washington manipula las elecciones y otros procesos políticos en todo el mundo: con los turbios métodos de Cambridge Analytica (CA), una consultora de marketing, que sustrae información personal de Internet, principalmente de Facebook, para dirigirse a segmentos específicos de la población con mensajes específicos e influir en su opinión. Los métodos de CA se han aplicado en más de 200 casos en todo el mundo en los últimos 3 o 4 años, para influir en las elecciones y otros procesos políticos, como en Argentina, Brasil, Perú, Colombia, el Reino Unido (Brexit), Alemania, Francia y otros muchos países. Se trata de una verdadera intromisión en los asuntos soberanos de los países por ese estado deshonesto que es Estados Unidos. ¡Y encima hablan de la intromisión rusa en las elecciones presidenciales de los Estados Unidos de 2016!

Sustraer con sigilo es uno de los delitos del régimen neoliberal que aún no comprendemos del todo, y muchos menos denominarlo. Esto siempre tiene un carácter retrospectivo. Este artículo espera contribuir a ello.

“… el corazón de Aguas de Barcelona (Agbar) está controlado en un 48% entre La Caixa y la multinacional gala Suez Lyonnaise des Eaux. Está presente en Europa, África y América, a través de 75 filiales. En Galicia opera como Aquagest, gestiona el agua de más de 70 municipios y abastece a cerca de 890.000 personas. En España, suministra agua a 18 millones de personas.

Fomento de Construcciones y Contratas (FCC), controlada por las hermanas Koplowitz, actúa en el sector a través de su filial Aqualia, pero desde hace casi seis años tiene un acuerdo con la francesa Vivendi Environnement, líder mundial de servicios. Suministra agua potable a cerca de 9 millones de personas en España y maneja el saneamiento de otros 10 millones. En América Latina está asociada al 50% con Veolia Environnement en Proactiva Medio Ambiente y opera en México y Venezuela”. La Voz de Galicia

——————-

Brasil, con aproximadamente 8.200 km³ anuales de agua dulce renovable, ocupa el primer lugar con aproximadamente ⅛ del total de recursos renovables de agua dulce del mundo, que se estiman en 45.000 km³. La cuenca del Amazonas posee alrededor del 73% de toda el agua dulce de Brasil. Se entiende por agua dulce renovable a la cantidad máxima de agua que es factible explotar anualmente en un país sin alterar el ecosistema y que se renueva por medio de la lluvia y la que entra desde el exterior. El segundo país con mayor cantidad de agua es Rusia con 4.500 km³ al año, seguido de Canadá, Indonesia, China, Colombia, Estados Unidos, Perú, la India, todos ellos con recursos hídricos renovables entre 2.000 y 3.000 km³ anuales.

Cuenca del río Amazonas (las Guayanas del sur, no marcadas en este mapa, son parte de la cuenca) (Fuente: Wikimedia Commons)

Por Continentes, es América el que dispone de la mayor cantidad de los recursos totales de agua dulce del mundo, con el 45%, seguido por Asia, con el 28%, Europa con el 15,5% y África, con el 9%. Estas cifras nos hablan de la vulnerabilidad de África. África es el continente más vulnerable del mundo en recursos hídricos. África también alberga alrededor del 60% de los recursos naturales disponibles y conocidos del mundo, unos recursos que Occidente ambiciona y por los cuales emprende guerras.

¿Es por lo tanto una coincidencia que la 8ª conferencia de WWF se realice en Brasil? No lo creo. Especialmente no, con Temer acudiendo a Davos, donde se ha podido encontrar con la flor y nata de las élites corporativas, financieras e institucionales del mundo, para privatizar los recursos hídricos de Brasil.

——————-

Estamos hablando de la privatización de la mayor reserva subterránea de agua dulce renovable de América, posiblemente del mundo, el Acuífero Guaraní, que tiene 1,2 millones de km² (aproximadamente del tamaño conjunto de Texas y California ), de los cuales el 71% se encuentra en Brasil, el 19% en Argentina, el 6% en Paraguay y el 4% en Uruguay.

El acuífero Guaraní fue descubierto en la década de 1990. Lleva el nombre de los pueblos indígenas que han habitado esta zona durante siglos. Se estima que el Acuífero Guaraní tiene alrededor de 46.000 km³ de agua dulce (no confundir con el agua dulce renovable anual, de la cual Brasil tiene aproximadamente 8300 km³. Ver más arriba). La tasa de extracción anual del Acuífero Guaraní es de poco más de 1 km³ al año, mientras que la tasa de recarga potencial se sitúa entre los 45 km³ y los 55 km³ al año, lo que significa que hasta ahora no hay riesgo de sobreexplotación. Sin embargo, esto podría cambiar rápidamente. Se dice que el Acuífero Guaraní podría abastecer a la población mundial durante los próximos 200 años con un consumo per cápita de 100 litros al día.

Cerca de 30 millones de personas habitan en la región guaraní. En la parte brasileña, entre 500 y 600 ciudades reciben agua del Acuífero Guaraní. ¿Cuántas de estas ciudades han privatizado ya sus servicios municipales de suministro?

A finales de febrero de 2018, la fundadora de Blue Planet, Mude Barlow, tuiteaba:

¡Espantoso! ¡Coca-Cola y Nestlé quieren comprar el Acuífero Guaraní! Esto debe ser impedido!”

Como informa Mint Press:

“En Sudamérica se está llevando a cabo un esfuerzo concertado para que una de las mayores reservas de agua dulce del mundo caiga pronto en manos de empresas transnacionales como Coca-Cola y Nestlé. Según informes, las conversaciones para privatizar el Acuífero Guaraní -una vasta reserva de agua subterránea que se encuentra debajo de Argentina, Brasil, Paraguay y Uruguay- ya han alcanzado una etapa avanzada. El acuerdo otorgaría a un consorcio de empresas con sede en Estados Unidos y Europa derechos exclusivos sobre el acuífero que durarían más de 100 años».

Bajo tales acuerdos de concesión, las cantidades que podrían extraerse podrían ser ilimitadas, lo que dejaría el acuífero en manos de aquellas Corporaciones privadas que forman parte del acuerdo negociado por Temer.

El artículo continúa:

«En Brasil, un intenso trabajo de los grupos de presión ha estado en marcha desde al menos 2016 para aprovechar el acuífero. Estos esfuerzos fueron el centro de atención a finales del mes pasado[en enero de 2018] en el Foro Económico Mundial en Davos, Suiza, donde se anunciaron conversaciones privadas entre el presidente de Brasil, Michel Temer, y una serie de altos ejecutivos con intereses en el acuífero, incluyendo el Director General de Nestlé, Paul Bulcke, el Director General de Anheuser-Busch InBev, Carlos Brito, el Director General de Coca-Cola, James Quincey, y el Director General de Dow Chemical, Andrew Liveris».

El artículo menciona además:

«Como señaló en el diario Brasil de Fato el destacado activista brasileño por los derechos del agua Franklin Frederick, estas empresas pertenecen al Grupo de Recursos Hídricos 2030 (2030WRG), un consorcio transnacional que incluye a AB Inbev, Coca-Cola, Dow, Nestlé y PepsiCo. 2030WRG se considera a sí misma como’una colaboración única entre el sector público, privado y la sociedad civil’ y oculta su intención de privatizar los suministros de agua de los países en desarrollo al pretender facilitar procesos de diálogo abiertos y basados en la confianza para impulsar la acción sobre la reforma de los recursos hídricos en los países con escasez de agua en las economías en desarrollo’ y “cerrar la brecha entre la demanda y la oferta de agua para el año 2030′».

Ya en septiembre de 2016, Reuter informaba que Temer “lanzó un plan multimillonario para subastar petróleo, derechos sobre los recursos energéticos y concesiones en infraestructuras”. Y el Correio do Brasil replicaba que esta “ira privatizadora” podría extenderse al Acuífero Guaraní. Un alto funcionario de la Agencia Nacional del Agua (ANA) ha revelado que el Acuífero Guaraní aparecerá en la listas de bienes públicos que pueden privatizarse.

Barlow, en una conferencia dada en Florianapolis, Brasil, en noviembre de 2011, dijo que la mayor preocupación para la humanidad es el peligro potencial de que el Acuífero Guaraní pase a estar controlado por intereses privados. Agregó que las empresas ya tienen un acceso preferente a estas aguas:

«Están sentados en la cima de una vasta reserva de agua en un mundo muy sediento, una reserva que no sólo es vital para la salud y el futuro de esta región, sino para toda la humanidad. Es un tesoro que debe ser protegido por los gobiernos en nombre de la gente y los ecosistemas de la región».

Estudios más recientes apuntan a la existencia de un sistema subterráneo de agua dulce aún mayor, el “océano subterráneo” de la Amazonia. Se cree que puede albergar 160.000 millones de m³ de agua dulce, principalmente en Brasil, pero también en Venezuela, Perú, Colombia y Ecuador. Los estudios todavía están en curso y podría ser demasiado pronto para sacar conclusiones definitivas. Sin embargo, estas gigantescas reservas de agua en América Latina, más el Acuífero de Areniscas de Nubia (NSAS), que es el acuífero fósil más grande del mundo, con aproximadamente 150.000 km³ de agua subterránea no renovable, deben estar protegidas para la humanidad.

El Acuífero de Areniscas de Nubia se encuentra bajo el extremo oriental del desierto del Sáhara. Se extiende por más de 2 millones de km² y abarca cuatro países en África del Norte y Central, Libia, Sudán, Chad y Egipto.

De vuelta a la WWF en Brasilia, donde se reúne la «mafia del agua» en el momento de la publicación de este artículo, y mientras en São Lourenço, Minas Gerais, 600 «Mujeres sin Tierra» ocupan la sede de Nestlé en Brasil, desde las 6 de la mañana del martes 20 de marzo. Nestlé, el gigante suizo de la alimentación y el agua, ha declarado que el agua es el número uno en su campo de expansión comercial. Nestlé controla ya más del 10% del mercado mundial de agua embotellada. Las «Mujeres sin Tierra» denuncian la política de Temer de entregar sus preciosos recursos hídricos a corporaciones internacionales. Conscientes de la continuación de la WFF, advierten que se están negociando nuevos contratos de concesión al margen de este foro.

Uno de los líderes dijo:

«Imagine que se ve obligado a comprar su agua en botellas para saciar su sed. Esto es lo que quieren estas empresas transnacionales, debatiendo oficialmente la mejora de la gestión del agua en Brasilia, cuando en realidad están negociando concesiones de nuestra agua a precios de venta al por menor».

Nosotros, los pueblos, el 99% de este planeta, tenemos la obligación moral de oponernos a este ataque clandestino globalizado y neofascista para privatizar y robar nuestros recursos hídricos vitales: la supervivencia de la humanidad. El agua es vida. Si no nos ponemos en pie ahora para detener esta privatización criminal de nuestros recursos hídricos, la humanidad puede verse condenada al fracaso.

———————–

Peter Koenig es economista y analista geopolítico. También es un especialista en recursos hídricos y medio ambiente. Trabajó durante más de 30 años con el Banco Mundial y la Organización Mundial de la Salud en todo el mundo en los ámbitos del medio ambiente y el agua. Da conferencias en universidades de los Estados Unidos, Europa y América del Sur. Escribe regularmente para Global Research; ICH; RT; Sputnik; PressTV; El siglo XXI; TeleSUR; El Viñedo de The Saker Blog; y otros sitios de Internet.

———————–

Europa encara el problema de la biodiversidad tras el declive de las aves en Francia

Los autores del Informe sobre la disminución de las poblaciones de aves dicen que la Agricultura Intensiva y los pesticidas podrían convertir las tierras agrícolas de Europa en un desierto que finalmente pondría en peligro también a los seres humanos.

Por Patrick Barkham, 21 de marzo de 2018

The Guardian

Una perdiz roja en Borgoña. Ocho de cada diez perdices han desaparecido en Francia en los últimos 23 años, según un reciente estudio. Fotografía: Pierre Vernay/Biosphoto/Alamy.

El catastrófico declive de las aves que habitan entre los cultivos de Francia marca una crisis de biodiversidad más amplia en Europa, que pone en peligro a todos los seres humanos, según han informado los principales científicos a The Guardian.

El dramático declive de las aves de las tierras de cultivo, como las alondras, las currucas y el escribano en Francia, fue evidenciado por dos estudios publicados esta semana, y que se asocia con el empleo de los plaguicidas neonicotinoides y la desaparición de los insectos.

La producción intensiva fomentada por la política agraria común en la UE, ha supuesto la disminución de las poblaciones de aves, y los grupos ecologistas adviertes que muchos países se enfrentan a una segunda “primavera silenciosa”, un término acuñado por la ecologista Rachel Carson para describir el declive de las poblaciones de aves en los años 1960, debido a los pesticidas.

Hemos perdido un cuarto de las alondras en 15 años, lo cual es algo realmente desmesurado. Si habláramos en términos de la población humana sería algo sumamente preocupante. Estamos convirtiendo nuestras tierras de cultivos en desiertos. Estamos perdiendo todo y, sin embargo, es algo que necesitamos, la biodiversidad: la agricultura necesita polinizadores y la fauna del suelo. Sin esto, simplemente, supondrá nuestro fin”, dijo el Dr. Benoit Fontaine, del Museo de Historia Natural de Francia, coautor de uno de los dos estudios, en los que se realiza una encuesta nacional de las aves más comunes de Francia.

Las tierras de cultivo representan el 45% de la superficie de la UE, pero las poblaciones de aves en Francia han disminuido en un tercio en los últimos 15 años. En algunos casos incluso la disminución es más acusada: 7 de cada 10 bisbitas pratenses han desaparecido de los campos franceses durante ese período, mientras que 8 de cada 10 perdices han desaparecido en los últimos 23 años, según estudio francés que examinó 160 áreas de llanuras cultivables de Francia.

Una bisbita de prado. Fotografía: Stephane Bouilland/Biosphoto/Amay.

Según el estudio, la desaparición de las especies de las tierras de cultivo se ha intensificado en la última década y nuevamente en los dos últimos veranos.

No obstante hay otras especies, como las palomas torcaces, los mirlos y los pinzones, que también habitan en las áreas urbanas y bosques, que están aumentando a nivel nacional, pero incluso están disminuyendo en las tierras de cultivo, lo que ha llevado a los investigadores a identificar las prácticas agrícolas como la causa de esas enormes disminuciones.

Los científicos establecen una correlación entre las disminuciones de aves y la drástica reducción de las poblaciones de insectos, como la disminución del 76% de los insectos voladores en las reservas naturales de Alemania en los últimos 27 años, disminuciones que se relacionan con el aumento en el uso de pesticidas, y en concreto de los neonicotinoides.

A pesar de que el Gobierno francés pretende reducir a la mitad el uso de los pesticidas en el año 2020, las ventas han aumentado, llegando a más de 75.000 toneladas de ingrediente activo en 2014, según cifras de la UE.


Todas las aves dependen de los insectos de una u otra forma. Incluso la aves granívoras alimentan a sus crías con insectos y las aves de presa se alimentan de aves que comen insectos. Si se pierde el 80% de su alimentación, no se puede mantener una población estable”, dijo Fontaine.

Fontaine dijo que la política agrícola de la UE no favorece revertir la disminución de las aves, pero dijo que los agricultores no tienen la culpa, y que es posible mantener los cultivos para producir alimentos y preservar la vida silvestre.

Los agricultores están realmente dispuestos a realizar un cambio. Sobreviven en medio de un sistema que depende de grandes empresas que fabrican pesticidas y tienen que lidiar con esa situación. No son los malos de esta película. El problema no es la agricultura, sino que la solución tiene que venir de los propios agricultores”, dijo Fontaine.

La disminución de las aves en Francia es un reflejo de lo que está ocurriendo en el resto de Europa: la abundancia de aves en las tierras agrícolas de los 28 países europeos se ha reducido en un 55% en las últimas tres décadas, según las cifras compiladas por el Consejo Europeo del Censo de Aves.

Entre las 39 especies más comunes que se encuentran en las tierras agrícolas europeas, 24 han visto reducir sus poblaciones y sólo 6 han aumentado. La cigüeña blanca es una de las pocas especies que ha tenido éxito, y su aumento está relacionado con un aumento en la colocación de nidos artificiales en las ciudades.

Iván Ramírez, jefe de conservación de BirdLife Europa y Asia Central, advirtió que Europa se percata ahora de la pérdida de biodiversidad en sus tierras de cultivo, con unos estudios científicos que atribuyen la disminución de las aves a la política de ayudas de la UE. Según Ramírez, los países que se han unido recientemente a la UE muestran unos descensos acusados en las aves presentes en los cultivos, mientras que les ha ido mejor a las poblaciones de aves de los países que no pertenecen a la UE en Europa Oriental, donde las prácticas agrícolas son menos intensivas después del colapso de la Unión Soviética.

Situación de las aves comunes de España (2005-2016) Fuente: SEO/BirdLife.

Martin Harper, director de conservación de la RSPB en el Reino Unido, dijo:

En el Reino Unido, la situación es igual de preocupante. Nuestras atribuladas aves de las tierras de cultivo han disminuido en un 56% entre 1970 y 2015, junto con la disminución de otros animales silvestres vinculados a cambios en las prácticas agrícolas, incluido el uso de pesticidas. Necesitamos urgentemente acciones a ambos lados del Canal, y esto es algo que esperamos ver de los gobiernos del Reino Unido mientras nos preparamos para salir de la UE”.

———————————-

Artículos relacionados:

Europa se queda sin aves (y España también)

El número de aves comunes en declive se ha triplicado en los últimos diez años

————————————

 

Un experimento podría confirmar que la gravedad es una fuerza cuántica

Por Natalie Wolchover, 9 de marzo de 2018

theatlantic.com

En 1935, cuando las teorías de la mecánica cuántica y de la teoría de la relatividad general de Einstein estaban en sus inicios, un físico soviético poco conocido llamado Matvei Bronstein, que apenas tenía 28 años, realizó el primer intento detallado del problema de reconciliar las dos teorías en una teoría cuántica de la gravedad. Esta “posible teoría del mundo como un todo”, como la llamó Bronstein, reemplazaría la descripción clásica de Einstein de la gravedad, que la presenta como curvas en el continuo espacio-tiempo, y la reescribiría en el mismo lenguaje cuántico que el resto de la física.

Matvey Bronstein

Bronstein ideó cómo describir la gravedad en términos de partículas cuánticas, que ahora se llaman gravitones, pero sólo cuando la fuerza de la gravedad es débil, es decir, siguiendo la teoría de la relatividad general, cuando el tejido espacio-tiempo está débilmente curvado aproximándose a una superficie plana. Cuando la gravedad es fuerte, “la situación es bastante diferente”, escribió. “Sin una profunda revisión de las teorías clásicas, parece casi imposible extender la teoría cuántica de la gravedad a este dominio”.

Sus palabras parecen proféticas: 83 años después, los físicos aún intentan comprender cómo se origina la curvatura del espacio-tiempo a escala macroscópica, desde una imagen más fundamental, presumiblemente cuántica, de la gravedad. Podría decirse que es la pregunta más acuciante en física. Quizás, aprovechando la oportunidad que se le ofreció, el astuto Bronstein podría haber ayudado a acelerar las cosas. Además de dedicarse al estudio de la gravedad cuántica, contribuyó a la astrofísica y la cosmología, la teoría de los semiconductores y la electrodinámica cuántica, y también escribió varios libros de ciencia para niños, antes de caer en la Gran Purga de Stalin y ser ejecutado en 1938, a los 31 años de edad.

La búsqueda de una teoría de la gravedad cuántica se ha visto obstaculizada por el hecho de que las propiedades cuánticas de la gravedad nunca parecen manifestarse en nuestras experiencias de la vida. Los físicos nunca han llegado a comprobar cómo falla la descripción de Einstein del continuo espacio-tiempo, o la aproximación cuántica de Bronstein cuando se presenta una débil curvatura.

El problema es la extrema debilidad de la gravedad. Mientras que las partículas cuánticas comunican las fuerzas fuertes, las débiles y las electromagnéticas, las cuales son tan intensas que unen fuertemente la materia en átomos y pueden estudiarse en experimentos de mesa, los gravitones son individualmente tan débiles que los laboratorios no tienen ninguna esperanza en detectarlos. Para detectar un gravitón se necesitaría un detector de partículas tan grande y masivo que colapsaría en un agujero negro. Esta debilidad es la razón por la cual se necesita una acumulación astronómica de masa para influir gravitacionalmente en otros cuerpos masivos, y por la que sólo vemos que la gravedad se manifiesta a gran escala.

No sólo es eso, sino que el universo parece gobernado por una especie de censura cósmica: regiones de extrema gravedad, donde el espacio-tiempo se curva tan bruscamente que las ecuaciones de Einstein no se comportan nada bien y la verdadera naturaleza cuántica de la gravedad y el espacio-tiempo deben ser desveladas- siempre se esconden detrás de los horizontes de los agujeros negros.

Incluso hace unos años había un consenso generalizado de que muy probablemente no haya manera de medir la cuantificación del campo gravitacional”, dice Igor Pikovski, físico de la Universidad de Harvard.

Ahora, un par de artículos publicados recientemente en Physical Review Letters han hecho cambiar la manera de ver las cosas. Los artículos sostienen que es posible describir la gravedad en términos cuánticos después de todo, aunque no se descubre nada nuevo al respecto. Los artículos, escritos por Sougato Bose de la University College London y nueve colaboradores, y por Chiara Maletto y Vlatko Vedral de la Universidad de Oxford, proponen un experimento de mesa, técnicamente desafiante, pero factible, que podría confirmar que la gravedad es una fuerza cuántica como el resto de fuerzas, aunque no se detecte el gravitón. Miles Blencowe, un físico cuántico de la Universidad de Datmouth que no participó en el trabajo, dijo que el experimento detectaría una señal segura de la gravedad cuántica invisible: la “sonrisa del gato de Cheshire”.

Un microdiamante que levita (punto verde) en el laboratorio de Gavin Morley en la Universidad de Warwick, frente a la lente utilizada para atrapar al diamante con luz (Gavin Morley)

El experimento que se propone determinará si dos objetos, el grupo de Bose planea utilizar un par de microdiamantes, pueden entrelazarse de manera mecánico-cuántica entres sí, a través de su mutua atracción gravitacional. El entrelazamiento es un fenómeno cuántico en el que las partículas se entrelazan de manera inseparable, compartiendo una única descripción física que caracteriza sus posibles estados combinados. (La coexistencia de los diferentes estados posibles, lo que se llama “superposición”, es el rasgo distintivo de los sistemas cuánticos). Por ejemplo, un par de partículas entrelazadas podría darse en una superposición en la que hay un 50% de probabilidades de que el giro de la partícula A apunte hacia arriba y la B hacia abajo, y un 50% de probabilidades de lo contrario. No se sabe de antemano qué resultado se puede obtener cuando se midan las direcciones de giro de las partículas, pero es seguro de que señalarán caminos opuestos.

Los autores argumentan que los dos objetos que proponen para su experimento puede entrelazarse entre sí de esta manera sólo si las fuerza que actúa entre ellos, en este caso, la gravedad, es una interacción cuántica, mediada por gravitones que pueden mantener superposiciones cuánticas.

Si puede hacer el experimento y conseguir el entrelazamiento, entonces de acuerdos con esos artículos, se debe concluir que la gravedad esta cuantizada”, explicó Blencowe.

Freeman Dyson

La gravedad cuántica es tan imperceptible que algunos investigadores se han preguntado si realmente hay tal cosa. El físico matemático Freeman Dyson, de 94 años, lleva argumentando desde 2001 que el universo podría sostener una especie de descripción «dualista», donde «el campo gravitacional descrito por la teoría de la relatividad general de Einstein es un campo puramente clásico sin ningún comportamiento cuántico”, como escribió ese año en The New York Review of Books, a pesar de que toda la materia dentro de este continuo espacio-tiempo está cuantizada en partículas que obedecen a reglas probabilísticas.

Dyson, quien contribuyó a desarrollar la electrodinámica cuántica (la teoría de las interacciones entre la materia y la luz) y es profesor emérito en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey, donde coincidió con Einstein, no está de acuerdo con el argumento de que la gravedad cuántica es necesaria para describir el interior inaccesible de los agujeros negros. Y se pregunta si la detección del hipotético gravitón podría ser imposible, incluso por principio. En ese caso, argumenta, la gravedad cuántica es metafísica, más que física.

No es el único escéptico. El renombrado físico británico Sir Roger Penrose y, de forma independiente, el investigador húngaro Lajos Diósi, han planteado la hipótesis de que el espacio-tiempo no puede mantener superposiciones. Argumentan que su naturaleza fluida, sólida y fundamentalmente clásica le impide curvarse de dos maneras diferentes a la vez, y que su rigidez es exactamente lo que causa el colapso de las superposiciones de sistemas cuánticos como los electrones y los fotones. Esta «decoherencia gravitacional», en su opinión, da lugar a la realidad clásica única, sólida como una roca, experimentada a escalas macroscópicas.

La capacidad de detectar la “sonrisa” de la gravedad cuántica parece refutar el argumento de Dyson. También acabaría con la teoría de la decoherencia cuántica, al mostrar que la gravedad y el espacio-tiempo mantienen superposiciones cuánticas.

Las propuestas de Bose y Marletto aparecieron simultáneamente, sobre todo por casualidad, aunque los expertos dicen que son un reflejo del espíritu del momento. Los laboratorios experimentales de física cuántica de todo el mundo están sometiendo objetos microscópicos cada vez más grandes a superposiciones cuánticas y racionalizando protocolos para probar si dos sistemas cuánticos están entrelazados. El experimento propuesto tendrá que combinar estos procedimientos a la vez que requerirá mejoras adicionales en el tamaño y la sensibilidad; podría tardar una década o más en poderse llevar a cabo. «Pero no hay obstáculos físicos«, dijo Pikovski, que también estudia cómo los experimentos de laboratorio podrían investigar los fenómenos gravitacionales. «Creo que es un reto, pero no creo que sea imposible”.

El plan se expone con mayor detalle en el documento de Bose y sus coautores, un elenco de 11 expertos de Ocean para completar las diferentes fases de la propuesta. En su laboratorio de la Universidad de Warwick, por ejemplo, un coautor, Gavin Morley, está trabajando en el primer paso, intentando poner un microdiamante en una superposición cuántica de dos lugares de trabajo diferentes. Para hacer esto, incrustará un átomo de nitrógeno en el microdiamante, junto a una cavidad en la estructura del diamante, y lo hará con un impulso de microondas. Un electrón que orbita el centro vacío de nitrógeno de un diamante absorbe la luz y no lo hace, y el sistema entra en una superposición cuántica de dos direcciones de giro -arriba y abajo- como una peonza que tiene alguna probabilidad de girar en el sentido de las manecillas del reloj y alguna posibilidad de girar en sentido contrario a las manecillas del reloj. El microdiamante, dotado de este giro superpuesto, está sometido a un campo magnético, que hace que los spin arriba se muevan a la izquierda mientras que los spin abajo se muevan a la derecha. El diamante en sí mismo se divide en una superposición de dos trayectorias.

En el experimento completo, los investigadores deben hacer todo esto con dos diamantes – uno azul y otro rojo, dicen – suspendidos uno al lado del otro dentro de un vacío ultrafrío. Cuando la trampilla que los sostiene está desconectada, los dos microdiamantes, cada uno en una superposición de dos posiciones, caen verticalmente en el vacío. A medida que caen, los diamantes sienten la gravedad del otro. ¿Pero cómo es de fuerte su atracción gravitacional?

Si la gravedad es una interacción cuántica, entonces la respuesta es: depende. Cada componente de la superposición del diamante azul experimentará una atracción gravitacional más fuerte o más débil hacia el diamante rojo, dependiendo de si éste se encuentra en la rama de su superposición que está más cercana o más lejana. Y la gravedad que siente cada componente de la superposición del diamante rojo depende igualmente de dónde esté el diamante azul.

En cada caso, los diferentes grados de atracción gravitacional afectan a los componentes evolutivos de las superposiciones de los diamantes. Los dos diamantes se convierten en interdependientes, lo que significa que sus estados sólo pueden ser determinados en combinación – si esto, entonces aquello – para que, al final, las direcciones de espín de sus dos sistemas de centro vacío de nitrógeno estén correlacionadas.


Después de que los microdiamantes hayan ido cayendo uno al lado del otro durante aproximadamente tres segundos, tiempo suficiente como para entrelazarse con la gravedad del otro, pasan a través de otro campo magnético que vuelve a unir las ramas de cada superposición. El último paso del experimento consiste en un protocolo de “testigo de entrelazamiento” desarrollado por la física holandesa Bárbara Terhal y otros: los diamantes azules y rojos entran en dispositivos separados que miden las direcciones de giro de sus sistemas de centro vacío de nitrógeno. (La medición hace que las superposiciones colapsen en estados definidos). Luego se comparan los dos resultados. Realizando varias veces el experimento y comparando muchos pares de mediciones de espín, los investigadores pueden determinar si los espines de los dos sistemas cuánticos están correlacionados entre sí con mayor frecuencia que un límite superior conocido para objetos que no están entrelazados cuánticamente. En este caso, se podrá concluir que la gravedad entrelaza a ambos diamantes y pueden darse superposiciones.

«Lo que es bello de estos argumentos es que realmente no se necesita saber qué es la teoría cuántica, de manera específica», dijo Blencowe. «Todo lo que tienes que saber es que tiene que haber algún aspecto cuántico en este campo que mediará la fuerza entre las dos partículas”.

Sin embargo, la realización del experimento supone salvar abundantes desafíos técnicos. El objeto más grande del que se ha realizado un superposición en dos ubicaciones distintas es una molécula de 800 átomos. Cada microdiamante contiene más de 100 mil millones de átomos de carbono, suficientes como para obtener una fuerza gravitacional adecuada. Descubrir su carácter cuántico requerirá de unas temperaturas más frías, mayor vacío y un control más preciso. La mayor parte del trabajo consiste en poner en marcha esta superposición inicial”, dice Peter Baker, miembro del equipo experimental de la UCL que está mejorando los métodos de enfriamiento por láser y captura de microdiamantes. Si se puede hacer con un diamante, Bose agrega, “entonces hacerlo con dos no supone mucha diferencia”.

Los investigadores que intentan descubrir si la gravedad es una fuerza cuántica no dudan de que la gravedad es una interacción cuántica capaz de inducir el entrelazamiento. Ciertamente, la gravedad es especial en algunos aspectos, y hay mucho por descubrir sobre el origen del espacio y el tiempo, pero la mecánica cuántica debe estar involucrada, dicen. No tiene mucho sentido tener por un lado una teoría de la física que es cuántica y por otro la gravedad, que se considerara desde el punto de vista clásico”, dice Daniel Harlow, un investigador de la gravedad cuántica del MIT. Los argumentos teóricos contra los modelos mixtos cuánticos y clásicos son sólidos (aunque no concluyentes).

Por otro lado, los teóricos ya se han equivocado antes, señaló Harlow: «Así que si puedes comprobarlo, ¿por qué no? Si eso callará a esta gente», es decir, a la gente que cuestiona la gravedad,»eso es genial«.

Dyson escribió en un correo electrónico, después de leer los documentos de la PRL, «El experimento propuesto es ciertamente de gran interés y vale la pena realizarlo con sistemas cuánticos reales». Sin embargo, dijo que la manera de pensar de los autores sobre los campos cuánticos difiere de la suya. «No me queda claro si [el experimento] resolvería la cuestión de si la gravedad cuántica existe», escribió. «La pregunta que he estado haciendo, si un solo gravitón es observable, es una pregunta diferente y puede resultar tener una respuesta diferente.«

De hecho, lo que Bose, Marletto y sus coautores piensan acerca de la gravedad cuántica deriva de cómo Bronstein la concibió por primera vez en 1935. (Dyson dijo que el trabajo de Bronstein es «un hermoso trabajo» que no había visto antes. En particular, Bronstein demostró que la débil gravedad producida por una masa pequeña puede ser estimada por la ley de gravedad de Newton. (Esta es la fuerza que actúa entre las superposiciones de microdiamantes.) Según Blencowe, los cálculos de gravedad cuántica débil no se han desarrollado mucho, a pesar de ser indiscutiblemente más relevantes físicamente que la física de los agujeros negros o el Big Bang. Espera que la nueva propuesta experimental incite a los teóricos a averiguar si existen correcciones sutiles a la aproximación newtoniana que los futuros experimentos de mesa puedan probar.

Leonard Susskind, un destacado teórico de la gravedad cuántica y de las cuerdas de la Universidad de Stanford, destacó la importancia de llevar a cabo el experimento propuesto porque «proporciona una observación de la gravedad en un nuevo rango de masas y distancias». Pero él y otros investigadores enfatizaron que los microdiamantes no pueden revelar nada sobre la teoría completa de la gravedad cuántica o el espacio-tiempo. Él y sus colegas quieren entender lo que sucede en el centro de un agujero negro y en el momento del Big Bang.

Tal vez una pista de por qué es mucho más difícil cuantizar la gravedad que todo lo demás es que otros campos de fuerza en la naturaleza exhiben una característica llamada «localidad»: Las partículas cuánticas en una región del campo (fotones en el campo electromagnético, por ejemplo) son «independientes de las entidades físicas de alguna otra región del espacio«, dice Mark Van Raamsdonk, un teórico de la gravedad cuántica de la Universidad de la Columbia Británica. Pero»hay una gran cantidad de evidencias teóricas de que la gravedad no funciona así».

En los mejores modelos para comprobar la gravedad cuántica (que tienen geometrías espacio-temporales más simples que las del universo real), no es posible asumir que el flexible tejido espacio-temporal se subdivida en piezas tridimensionales independientes, dijo Van Raamsdonk. En cambio, la teoría moderna sugiere que los componentes fundamentales subyacentes del espacio «están organizados más bien en 2 dimensiones«. El tejido espacio-temporal podría ser como un holograma o un videojuego: «Aunque la imagen es tridimensional, la información se almacena en algún chip de computadora bidimensional«, dijo. En ese caso, el mundo 3-D es ilusorio en el sentido de que las diferentes partes de él no son tan independientes. En la analogía del videojuego, un puñado de bits almacenados en el chip 2-D podría codificar las características globales del universo del juego.

La diferencia es importante cuando se trata de construir una teoría cuántica de la gravedad. El enfoque habitual para cuantificar algo es identificar sus partes independientes -por ejemplo, las partículas- y luego aplicarles la mecánica cuántica. Pero si no identificas los constituyentes correctos, obtienes las ecuaciones equivocadas. Cuantificar directamente el espacio tridimensional, como lo hizo Bronstein, funciona hasta cierto punto para la gravedad débil, pero el método falla cuando el espacio-tiempo está muy curvado.

Presenciar la «sonrisa» de la gravedad cuántica ayudaría a estimular estas líneas abstractas de razonamiento, dijeron algunos expertos. Después de todo, incluso los argumentos teóricos más sensatos sobre la existencia de la gravedad cuántica carecen de la importancia de los hechos experimentales. Cuando Van Raamsdonk explica su investigación en un coloquio o conversación, dice, normalmente tiene que empezar diciendo que la gravedad necesita reconciliarse con la mecánica cuántica porque la descripción clásica del espacio-tiempo falla para los agujeros negros y el Big Bang, y en algunos experimentos mentales sobre partículas que chocan con energías inalcanzablemente altas. «Pero si pudieras hacer este simple experimento y obtener el resultado que te muestre que el campo gravitacional estaba realmente en una superposición«, dice, entonces la razón por la que la descripción clásica se queda corta sería evidente: «porque existe este experimento que sugiere que la gravedad es cuántica«.

———————————————–

 

Los derechos humanos en la salud mental

Estamos frente a una emergencia global de los derechos humanos en la salud mental. En todo el mundo las personas con discapacidad mental experimentan una amplia gama de violaciones de los derechos humanos.

Harrie Timmermans / Iniciativa Global de Psiquiatría

 

En muchos países la gente no tiene acceso a la atención básica de salud mental y el tratamiento que necesitan. En otros, la falta de atención de la salud mental en la comunidad significa que la única atención disponible es en las instituciones psiquiátricas que están asociadas con violaciones graves de los derechos humanos, incluyendo tratamiento y las condiciones de vida inhumanas y degradantes.

Incluso fuera del contexto de la atención de salud, que están excluidos de la vida de la comunidad y se les niega derechos básicos tales como vivienda, alimentos y ropa, y son discriminados en los ámbitos del empleo, la educación y la vivienda debido a su discapacidad mental. Muchos se les niega el derecho al voto, casarse y tener hijos. Como consecuencia de ello, muchas personas con discapacidades mentales están viviendo en la pobreza extrema que a su vez, afecta su capacidad para tener acceso a la atención adecuada, integrarse en la sociedad y recuperarse de su enfermedad.

La convención de la ONU sobre los derechos de las personas con discapacidad – una nueva esperanza para la protección de los derechos

El trabajo de la OMS está informado por la Convención de los Derechos de las Personas con Discapacidad.

El Libro de Recursos de la OMS sobre Salud Mental, Derechos Humanos y Legislación se ha retirado porque ha sido elaborado con anterioridad a la entrada en vigor de la Convención de las Naciones Unidas sobre los derechos de las personas con discapacidad y por lo tanto no cumple con las últimas normas y estándares de derechos humanos.

En 2008, la Convención de la ONU sobre los Derechos de las Personas con Discapacidad (CDPD) entró en vigor. La Convención establece una amplia gama de derechos que incluyen, entre otros, los derechos civiles y políticos, el derecho a vivir en la comunidad, la participación y la inclusión, la educación, la salud, el empleo y la protección social. Su entrada marca un hito importante en los esfuerzos para promover, proteger y asegurar el goce pleno y en igualdad de todos los derechos humanos de las personas con discapacidad.

Capacitar a los actores clave sobre los derechos de las personas con discapacidad mental

Todas las personas y profesionales que tienen un impacto en la vida de las personas con discapacidad mental deberían recibir una formación en materia de derechos humanos. La formación tiene que ser proporcionada a:

  • personas con discapacidad mental a sí mismos, así como sus familias – para que puedan reclamar sus derechos;

  • profesionales de la salud y de salud mental – para que comprendan los derechos de sus pacientes y se apliquen éstas en la práctica;

  • la fuerza de policía que están en contacto diario con las personas con discapacidad mental;

  • abogados, magistrados y jueces que toman decisiones importantes en relación con la vida de las personas con discapacidad mental.

———————

Son muchas las organizaciones y personas que defienden los derechos de las personas con enfermedad mental, que pretenden dar conocer este problema social y también servir de apoyo y ayuda a otras personas que puedan sufrir o hayan sufrido la losa de un sistema psiquiátrico disparatado. Se ofrecen a continuación algunos enlaces a dichas organizaciones y sitios web de interés:

RED MUNDIAL- EUROPEA DE SUPERVIVIENTES / EXUSUARIOS PSIQUIATRIA

ENUSP   http://enusp.org/

WNUSP http://www.wnusp.net/

CENTRO DE SUPERVIVIENTES y EXUSUARIOS DE PSIQUIATRIA 

TINA  MINKOWITZ / Abogada y victima de psiquiatría y líder del activismo mundial en este aspecto:

http://www.chrusp.org/home/about_us

HOSPITAL LIBRE DE PSICOFARMACOS  UNN ASGARD TROMSO / 

https://unn.no/avdelinger/psykisk-helse-og-rusklinikken/avdeling-nord/medikamentfritt-behandlingstilbud

MERETE ASTRUP   directora psiquiatra UNN sin psicorfármacos. dirigirse por email post@unn.no 

https://www.pingvinavisa.no/gledens-dag-pasienter-parorende-psykisk-helse/

ASOCIACIÓN NUEVA PSIQUIATRÍA  / GRUPOS G.A.T

PRESIDENTE : PSIQUIATRA FRANCISCO JAVIER ÁLVAREZ RODRÍGUEZ

http://nuevapsiquiatria.es/

JORNADAS INTERNACIONALES NUEVA PSIQUIATRIA EN MADRID

https://www.facebook.com/events/205145500229113/

FACULTAD INTERNACIONAL PARA LA RETIRADA DE PSICOFARMACOS 

http://iipdw.com/faculty/ 

CARINA HAKKANSON

http://iipdw.com/carina/      

JAAKKO-SEIKKULA                       

http://iipdw.com/jaakko-seikkula-finland/

JIM VAN OS

http://iipdw.com/jim-van-os-netherlands/

JOHN READ

http://iipdw.com/john-read-uk/

OLGA RUNCIMAN

http://iipdw.com/olga-runciman-denmark/

OTTAR NESS

http://iipdw.com/ottar-ness-norway/

PETER GOTZSCHE

http://iipdw.com/peter-gotzsche-denmark/

ANNI HOUSE

https://www.facebook.com/anni.haase.9       

trabaja con Seikkula

TORE ODEGARD    psicólogo despsiquiatrizado 

CONTACTOS ACTUALES PRINCIPALES  EN DINAMARCA Y NORUEGA DE SUPERVIVIENTES DE PSIQUIATRIA

HAKON RIAN UELAND  

https://www.facebook.com/haakon.ueland    

superviviente de la psiquiatría, Noruega.

DORIT CATO CRISTIENSEN

Activista de derechos humanos en psiquiatría, Mataron a su madre con psicorfármacos. Ha escrito un libro : “Dear Luise: A story of power and powerlessness in Denmark’s psychiatric care system”

SAMI TIMIMI

http://iipdw.com/sami-timimi-uk/

VOLKMAR ADERHOLD GERMANY

http://iipdw.com/volkmar-aderhold-germany/

WILL HALL USA

http://iipdw.com/will-hall-usa/

LUNDBLAD EDLING

http://iipdw.com/hanna-lundblad-edling/

ROBERT WHITAKER

http://iipdw.com/robert-whitaker-usa/

MAGNUS HALL

http://iipdw.com/magnus-hald-norway/


Artículos relacionados:

Medicamentos psiquiátricos: un asalto a la Condición Humana (I)

y el resto de artículos de la misma serie.

Una reciente revisión de un estudio sobre los antidepresivos muestra que el fraude científico se puede mantener durante décadas: el caso de la paroxetina y la imipramina

——————————————–

La Era del Antropoceno: cambio climático, cambios en la ecología del planeta

Por Richard Gale y el Dr. Gary Null, 14 de marzo de 2018

globalresearch.ca

Los científicos del clima y los ecologistas se refieren a nuestra era postmoderna como la Era del Antropoceno cuando analizan el impacto de la civilización occidental en el clima y los futuros cambios y transformaciones ecológicas del planeta. De hecho, la Industria y la tecnología modernas están destruyendo el planeta. Su huella de carbono es algo evidente en cualquier lugar al que vayamos. La comida que llega a nuestra mesa ha seguido una larga trayectoria durante la cual se han emitido gran cantidad de gases de efecto invernadero. Pero también lo hacen los teléfonos móviles, los ordenadores, los pantalones y los zapatos, y otras muchas cosas. Aparte de los fenómenos meteorológicos extremos, a menudo no advertimos la inmediatez y la velocidad de esos cambios, como la llegada de ciertos escarabajos depredadores que invaden los árboles de nuestro jardín o la llegada de una planta exótica que sólo debiera crecer en otros climas. O la llegada de nuevas plagas que diezman los bosques.

Un estudio realizado durante cinco años por la Universidad de Delaware predijo que el 72% de los árboles de hoja perenne del sur de los Estados Unidos desaparecerá en el año 2050 debido al escarabajo del pino del sur que los está diezmando. Este insecto es nativo de América Central, sin embargo, desde 1990, los inviernos son más suaves, lo que ha permitido que la plaga migre hacia el norte hasta Nueva Jersey y más recientemente a Long Island. En toda América del Norte y otros continentes se están produciendo extinciones masivas de árboles.

Cuando el Laboratorio Nacional de Los Álamos, junto con científicos de otras 18 instituciones y agencias federales, llevaron a cabo múltiples simulaciones de calentamiento global para verificar y cotejar sus resultados, la conclusión fue la misma: el cambio climático es la máquina que provoca la muerte masiva de árboles y bosques. Esto incluye el gran bosque boreal que se extiende alrededor del clima más septentrional del planeta y uno de los recursos naturales más importantes y últimos que asegura que disponemos de aire oxigenado para respirar. Ya se está observando que la turba en los bosques boreales del mundo se está descomponiendo a un ritmo asombroso y liberando metano, un gas de efecto invernadero mucho más potente y peligroso que el dióxido de carbono.

En la costa del Pacífico de los EE.UU., una criatura gelatinosa conocida como pirosoma ha migrado desde sus aguas tropicales nativas más cálidas de la costa centroamericana hasta el Golfo de Alaska. Los pirosomas son una especie invasora, al igual que muchos otros organismos que se multiplican con el aumento de la temperatura mundial. Estos zooides son ahora tan abundantes que las poblaciones de bancos de peces están amenazadas. Interfieren con la industria pesquera y las pesquerías y, como consecuencia, la proliferación de pirosomas tiene un impacto negativo directo sobre las comunidades y las economías. En su libro “Stung! On Jellyfish Blooms and the Future of the Ocean”, la autora Lisa Ann Gershwin escribe:

«Estamos creando un mundo más parecido al de finales del Precámbrico que al de finales del siglo XIX, un mundo en el que las medusas dominaban los mares y los organismos con conchas no existían. Estamos creando un mundo en el que los humanos pronto seremos incapaces de sobrevivir o quisiéramos hacerlo».

Gershwin explica además cómo el aumento de las medusas contribuye al calentamiento global. Por un lado, las medusas consumen enormes cantidades de diatomeas y otros plancton, que ayudan a secuestrar el dióxido de carbono y expulsar el oxígeno. Segundo, las medusas excretan desechos ricos en carbono que son absorbidos por las bacterias del océano. A medida que el número de bacterias aumenta paralelamente a la floración de las poblaciones de medusas, se convierten en fábricas en miniatura que bombean dióxido de carbono a la atmósfera y acidifican aún más las aguas de los océanos.

O si va a un mercado, ¿nota que el pescado, incluyendo el atún y el bacalao, se está haciendo más pequeño? El calentamiento global también afecta directamente a los peces. Esta fue la conclusión de los científicos del Instituto para los Océanos y la Pesca de la Universidad de Columbia Británica basada en datos empíricos. Unos océanos más cálidos significan menos oxígeno para las funciones corporales de los peces porque «los peces están limitados por sus branquias en la cantidad de oxígeno que pueden extraer del agua». El estudio estima que se perderán 3,4 millones de toneladas métricas de peces por cada grado centígrado de calentamiento global.

Estas historias breves revelan los efectos adversos que se están produciendo en este mismo momento sólo en los EE.UU. debido al calentamiento global. Están entre muchos miles de otros que ocurren en todo el mundo. Cuando hablamos de cambio climático, las fronteras que dividen los intereses nacionales son irrelevantes. El cambio climático y el planeta que se calienta es una crisis global que nosotros mismos provocamos. Y se está haciendo muy poco, tanto a nivel político nacional como internacional, para reducir las fuentes y causas de esta emergencia.

Antes de que la orgía de la utilización y el consumo de combustibles fósiles se convirtiera en un hiperimpulso hacia 1950, había un 90% más de peces en nuestros océanos. Había 40 por ciento más de fitoplancton, uno de los más importantes fabricantes de oxígeno de nuestro planeta y un organismo esencial para contrarrestar la acidez causada por los desechos humanos y la contaminación. En menos de 70 años, los seres humanos ya han eliminado el doble de árboles de los bosques y selvas del mundo. Había tres veces más agua dulce. Y había un 30% menos de gases de efecto invernadero, especialmente dióxido de carbono en la atmósfera de la Tierra. Lo que es igualmente importante es imaginarse el sombrío escenario de que durante este mismo período de 70 años, a medida que los recursos para sostener la vida humana disminuyen, nuestra población aumenta paulatinamente. Desde 1950 (2.500 millones de personas) casi se ha triplicado hasta alcanzar los 7.600 millones en 2020. Las simples matemáticas son claras: la humanidad se dirige hacia tiempos extremadamente oscuros y aterradores en un futuro muy cercano.

Es reconfortante volverse complaciente y simplemente considerar la decadencia gradual y la muerte de los ecosistemas del planeta como coincidencias inusuales o extrañas. Rara vez pensamos en los factores causales más profundos que apuntan directamente a nuestros comportamientos individuales y sociales. Los inviernos comienzan más tarde; la primavera llega antes. Las lluvias prolongadas y los incidentes climáticos extremos se perciben como meras anomalías, al igual que los excesivos meses de calor y sequía. A los científicos les gusta decir que esta es la nueva»normalidad», al igual que los medios de comunicación nos hacen creer que la obesidad y una vida más corta también son nuevas normas. Pero la vida continúa. Aceptamos pasivamente la sutileza de los cambios adversos que afectan nuestras vidas. La asimilación y adaptación al cambio hostil es mucho más fácil y reconfortante que despertar de nuestra ignorancia o negación de problemas que amenazan la vida. La gente simplemente dice, «ese fue un año extraño» o «el clima se comporta de una forma extraña últimamente”, y asume que todo volverá a un nivel medio al año siguiente. Todo es cíclico, ¿verdad? Pero los últimos años de normalidad no reaparecen. Cada año es testigo de nuevos eventos climáticos que rompen récords en algún lugar del mundo. Y esto es parte de lo que refleja la Era del Antropoceno.

Entonces, ¿qué se quiere decir cuando decimos que la humanidad y todas las demás especies, y el mismo planeta, han entrado en la Era del Antropoceno? El Antropoceno significa que lo que la humanidad hace hoy es más de lo que ha hecho en el pasado desde los albores de la sociedad industrial moderna, hace más de doscientos años, cuando se inventó la máquina de vapor. El término no es descriptivo únicamente de nuestro siglo actual, sino que se refiere a toda una era en el tiempo geológico. La Era Cenozoica anterior comenzó hace 65 millones de años después de la extinción de los dinosaurios no voladores y la rápida aparición de los mamíferos. Las edades geológicas anteriores también experimentaron cambios catastróficos. La última y más reciente fue la del Holoceno que comenzó al final de la era glacial, hace aproximadamente 11.700 años. Pero estos cambios se originaron dentro de la geofísica natural y los fenómenos que ocurren dentro de los sistemas geológicos del planeta. O fueron accidentales, como el caso de un asteroide, de aproximadamente 6 millas de diámetro, que chocó contra la superficie de la Tierra y alteró de la noche a la mañana la atmósfera y la temperatura mundial, lo que dio lugar a la Era Cenozoica.

El Antropoceno es algo único en el tiempo geológico. No son sólo los ritmos geofísicos los que alteran el planeta de forma natural. Eso fue en épocas anteriores. Durante los últimos doscientos años ha aparecido un nuevo agente de cambio geológico: el moderno Homo sapiens y el surgimiento de una civilización industrializada distanciada de la naturaleza y sus orígenes. Y este agente se ha vuelto tan penetrante e independiente de su línea de vida natural, tan distanciado de su hogar natural que le dio origen, que al igual que el asteroide cenozoico, la humanidad se ha transformado en un poder alienígena que afecta y remodela todos los geosistemas y ecosistemas que de otro modo mantendrían a la Tierra en un estado natural de balance y equilibrio. Esta es la era de Anthropos, la palabra griega para «humano», pero también apropiadamente el nombre de un robot social diseñado para imitar el comportamiento humano por Media Lab Europe. Es una nueva era geológica creada por nosotros mismos.

En 1873, un geólogo italiano llamado Antonio Stoppani observó que los humanos estaban incrementando su influencia sobre el mundo, afectando negativamente los sistemas ecológicos de la Tierra. Propuso que el planeta estaba entrando en una nueva era en su historia geológica, a la que llamó la «era antropozoica», la séptima edad geológica desde que la Tierra se formó en el Sistema Solar como un cúmulo de gas y polvo hace 4.600 millones de años, y la octava época durante la era desde la aparición de los mamíferos que se inició hace 65 millones de años. Durante su vida, las ideas y predicciones de Stoppani no lograron arraigarse en la comunidad científica. La civilización occidental estaba todavía en medio de la euforia de la Ilustración por el repentino estallido de descubrimientos científicos y los poderes de la razón sobre el instinto. Fue durante esta Era de la Razón cuando la teoría de Darwin sobre la evolución humana se apoderó de la imaginación intelectual y gradualmente se fusionó con mitos utópicos de infinito progreso industrial y económico. Desde entonces, el mito se ha solidificado en la conciencia occidental, creando una visión del mundo que hoy en día percibe a nuestra especie como los maestros y dioses de la creación, los gobernantes supremos de su destino terrestre.

Las ciencias geológicas tendrían que esperar otros cien años antes de que un químico holandés y laureado con el Premio Nobel que observó por primera vez el agujero en la capa de ozono, Paul Crutzen (imagen a la izquierda), definiera la Era del Antropoceno como la llegada de una nueva época en la historia geológica de la Tierra. Crutzen observó que la actividad humana había pasado un umbral por el cual se había convertido en la fuerza dominante y abrumadora que moldeaba los sistemas internos y la geología del planeta. Según Crutzen y su colega Eugene Stoermer, biólogo de la Universidad de Michigan, fue a finales del siglo XVIII cuando comenzó la Era Antropocena con las primeras evidencias científicas de dos gases de efecto invernadero, el CO2 y el metano, generados por la sociedad industrial humana. Hoy en día, la definición se ha mantenido y se está convirtiendo rápidamente en un término familiar.

Pero, ¿qué significa para la Tierra haber entrado en una nueva época geológica? Para comprender mejor el significado pleno del Antropoceno como una nueva era geológica, imagínese por un momento que todos los humanos desaparecieran repentinamente de la faz de la Tierra mañana. O imagine que todos hemos sido transportados al espacio exterior por una raza alienígena para liberar a la Tierra de las acciones destructivas de la humanidad. Aun con la ausencia de la humanidad, durante los próximos diez a quince mil años, todos los eventos geológicos y climáticos subsiguientes tendrán una relación directa o indirecta con las actividades humanas del pasado. Las huellas de nuestra civilización son tan penetrantes a través de los sistemas geo- y atmosféricos de la Tierra que perdurarán por muchos milenios, mucho después de que nuestra especie se extinga. Y es con la llegada del Antropoceno que la humanidad se ha convertido como el principal artífice del ecocidio, el destructor del medio ambiente, los ecosistemas y los hábitats del planeta.

Clive Hamilton (imagen de la derecha), ex miembro de la Autoridad del Cambio Climático del gobierno australiano, escribe: «La llegada del Antropoceno contradice todas las narrativas, filosofías y teologías que predicen un ascenso preordenado y continuo de la humanidad a niveles cada vez más altos de desarrollo material, social y espiritual». En su libro de 2017, Defiant Earth: The Fate of Humans in the Anthropocene (Tierra desafiante: El destino de los humanos en el Antropoceno), Hamilton advierte de la arrogancia científica que impulsa a las naciones occidentales a imaginar que podemos aplicar técnicas de geoingeniería para modificar el clima, reducir las amenazas destructivas de los gases de efecto invernadero y asegurar un mayor crecimiento del capital humano y el desarrollo tecnológico para resolver todos los problemas de nuestra civilización y del planeta a medida que surjan. Para Hamilton, el Antropoceno exige que todo lo que hemos dado por sentado sobre nuestra civilización -desarrollo económico, globalización y comercio, política y política exterior, estructuras sociales y más- debe ser reevaluado. Más importante aún, existe una demanda urgente de una relación completamente nueva que la humanidad debe crear con la Tierra y con otras especies. Por último, es hora de que las naciones, sus gobernantes y los líderes de la industria acepten el hecho de que ya no somos capaces de dar marcha atrás en el reloj geológico.

Si limitamos nuestra definición del Antropoceno únicamente al cambio climático, no captamos el panorama general y no reconoceremos lo que realmente está en juego. Es cierto que el cambio climático ha sido la razón principal de la acuñación del término. Sin embargo, los seres humanos están alterando la geología, los ecosistemas y la biodiversidad del planeta de muchas otras maneras que están indirectamente relacionadas con el calentamiento del planeta o algo muy diferente. Estos otros impactos antropogénicos y amenazas para la supervivencia humana son más recientes y coinciden con el florecimiento de la tecnología postindustrial y el deseo de la humanidad de conquistar, dominar y manipular la Naturaleza únicamente para su propia avaricia y necesidades. La modernidad se aleja cada vez más del tejido natural de la vida del que dependen nuestras vidas para sobrevivir. Esta tendencia sigue aumentando, incluso entre las generaciones más jóvenes, que ahora pasan menos tiempo jugando al aire libre y más tiempo delante de ordenadores, televisores y juegos electrónicos.

Richard Heinberg, director del Post Carbon Institute de California, advierte que la continua expansión de la civilización moderna ha sobrepasado con mucho la capacidad de la Tierra para proporcionar los recursos necesarios de los que dependen nuestras vidas. Este problema, argumenta Heinberg, es el resultado de un grave desequilibrio en nuestros sistemas humanos. El problema quedó al descubierto por primera vez en 1972, cuando un grupo de investigadores del MIT publicó el ahora profético estudio Limits of Growth. El informe predijo con precisión muchas de las amenazas a las que se enfrentan nuestras sociedades debido al agotamiento de los recursos, la producción de alimentos, las industrias manufactureras, la sobrepoblación, el aumento de la contaminación, etc. Fue el primer estudio importante en confirmar que la cosmovisión de nuestra civilización de que puede haber un progreso económico infinito que depende de recursos naturales finitos es una receta para un colapso catastrófico. Durante más de cuarenta años, los principales ecologistas han entendido el dilema humano mediante el pensamiento sistémico. Para comprender plenamente los grandes problemas a los que nos enfrentamos, incluyendo nuestras vidas individuales, es imperativo que dejemos de lado el pensamiento lineal y racional, y miremos nuestros problemas sistémicamente. Esto incluye las muchas maneras en que entendemos nuestra propia salud y las soluciones disponibles para abordar los problemas de la enfermedad.

Nada en la naturaleza es lineal. La naturaleza opera de acuerdo a una teoría de sistemas. Es inherentemente holística, lo que significa que toda la Naturaleza es más que la simple suma de sus partes (ecologías individuales) y hay numerosas relaciones interdependientes entre esas partes. Esto es cierto para el reconocimiento de las principales consecuencias del cambio climático, así como para la comprensión de los costes ambientales de la extinción de especies, la destrucción de los ecosistemas del planeta, la agricultura de monocultivos y la industria ganadera, la deforestación, las operaciones mineras masivas y mucho más. Lamentablemente, nuestras instituciones políticas y la estrechez de miras de los intereses privados son incapaces de comprender los resultados sistémicos detrás de sus actuaciones. Si lo fueran, ya no habría negacionistas del cambio climático en los cargos públicos. Por esta razón, la tecnología no nos salvará en última instancia.

Una foto de una enorme mina de cobre a cielo abierto de Antofagasta en Chile. (Fuente: D. Gary G Kohls)

La propia tecnología, incluidas las tecnologías «verdes» como la energía solar y las turbinas eólicas, también depende de recursos que dejan una huella de carbono. Los paneles solares requieren el uso de arsénico, aluminio, cadmio, cobre, galio, telurio y otros metales. Los aerogeneradores requieren aleaciones de acero, níquel, cromo, aluminio y manganeso. La mayoría de estos metales requieren de la minería, y todas las operaciones mineras dependen de combustibles fósiles y emiten gases de efecto invernadero. La minería también contribuye al menoscabo ecológico de los árboles, la flora y la degradación de los suelos. Sin duda, las tecnologías nos harán ganar tiempo. Pero ninguna de ellas es la solución milagrosa para frenar el calentamiento acelerado. Tal vez una de las únicas soluciones prometedoras sea una enorme reducción del progreso y el desarrollo, que sigue el viejo mantra de los años 70: «reducir, reutilizar, reciclar». Pero tal política es completamente contradictoria con toda la maquinaria económica neoliberal que alimenta la globalización corporativa y la expansión de los mercados. En resumen, el cambio climático y el medio ambiente son cuestiones morales, y el capitalismo de libre mercado, según Jerry Mander y fundador del Foro Internacional sobre la Globalización, es fundamentalmente amoral y sin ningún otro valor humano que no sea el económico.

Nuestra civilización moderna también está reorganizando y transformando el ADN mismo de la vida terrestre. El árbol evolutivo de la vida, que requirió miles de millones de años de cambio, innovación, adaptación y desarrollo para hacer surgir la vitalidad natural del mundo en el que vivimos hoy en día, está siendo transformado por las alteraciones tecnológicas en un laboratorio. En un artículo publicado en la revista Anthropocene Magazine, Andrew Revkin escribió que «la revolucionaria herramienta de edición genética CRISPR está lista para imponer las ambiciones de los humanos al menos tan profundamente como los combustibles fósiles han cambiado el mundo físico«. El árbol de la vida, observa Revkin, y que Darwin imaginó, ha sido «completamente perturbado ahora que la secuenciación del ADN permite una visión más completa» de los organismos vivos.

Desafortunadamente, las naciones del mundo aún tienen que enfrentarse a las polémicas repercusiones a largo plazo de la ingeniería genética. Y menos aún, ¿reconoce la ciencia las posibles crisis que pueden surgir de la interacción de los organismos genéticamente modificados liberados y el cambio climático abrupto? Por ejemplo, la promesa de la Segunda Revolución Verde de cultivos más resistentes para sobrevivir a futuras invasiones de plagas y malezas y para producir mayores rendimientos de la ingeniería genética se está desmoronando rápidamente.

Si usted visita cualquier campo de soja transgénica en el Medio Oeste de los Estados Unidos, mezclada entre las plantas de soja de color verde más pálido, observará plantas más altas, más lustrosas y verdes más oscuras o algarrobas que dominan gradualmente su vista. Similar a la resistencia microbiana a los antibióticos debido a la excesiva prescripción, las super malezas se están volviendo cada vez más resistentes a los productos tóxicos de Monsanto y otras compañías agroquímicas. Los cultivos cultivados mediante prácticas industriales químicas, como fertilizantes nitrogenados, una variedad de pesticidas y herbicidas, arado a máquina y una mayor demanda de agua, están resultando ser nutricionalmente inferiores a sus contrapartes orgánicas. También se han vuelto más susceptibles a las invasiones de plagas, lo que a su vez requiere una mayor aplicación de productos químicos potentes y tóxicos. Los rendimientos están disminuyendo. Los episodios más frecuentes de sequía extrema y precipitaciones excesivas debido al calentamiento global agravan aún más las dificultades a las que se enfrentan los agricultores. Toda nuestra infraestructura de seguridad alimentaria está sobrecargada de impuestos, severamente estresada y es más difícil mantenerla a flote a medida que se demandan más fertilizantes, químicos tóxicos y agua. Este mecanismo de retroalimentación positiva -un modelo inicial de agricultura basado en productos químicos que requiere más de lo mismo para mantener el ritmo del cambio climático- reduce aún más los rendimientos y crea más estrés económico y de salud para las personas y las familias.

Cuando damos un paso atrás y echamos un vistazo a la huella antropogénica de nuestra civilización, también debemos tener en cuenta otras actividades además de la quema de combustibles fósiles. A nivel mundial, decenas de miles de millones de toneladas de hormigón, tal vez una de las sustancias más perjudiciales para el medio ambiente jamás inventadas, se utilizan en la construcción y el desarrollo. Las corporaciones privadas extraen grandes cantidades de aluminio anualmente, lo cual es un proceso de uso intensivo de energía. La energía gastada en la producción de aluminio es hoy más costosa que el costo real del metal. Nuestra tierra, nuestros ríos, lagos y océanos están cubiertos de plástico. El último estudio realizado en 2016 estimó que aproximadamente ocho millones de toneladas de plástico se vierten en los océanos anualmente. En todo el mundo, la dependencia de los Estados Unidos del plástico sigue aumentando y la industria del plástico se basa en el petróleo. WorldWatch estima que el 4% del petróleo consumido se destina a la fabricación de plásticos. Y EE.UU. lidera los países desarrollados en el reciclaje de la menor cantidad de plástico post-consumo. Más del 90%, aproximadamente 32 millones de toneladas, se desecha o se vierte en vertederos.

Después del agua, según el Instituto de la Tierra de la Universidad de Columbia, «el hormigón es la sustancia más consumida del planeta«. El ritmo de producción de hormigón en la actualidad equivale a que cada persona en el planeta consume tres toneladas al año. La fabricación de hormigón representa el 5% de las emisiones de CO2 durante el proceso de calentamiento de la piedra caliza. Y el paisaje de nuestro planeta sigue construyéndose sobre hormigón. A pesar de que la Junta del Mar del Este permanece bajo alerta por las repentinas ráfagas de subida del nivel del mar (seis veces el promedio mundial entre 2011 y 2015), las inundaciones y las olas más altas durante las tormentas tropicales, la locura de la construcción acelerada a lo largo de la costa no ha disminuido. «Es increíble ver la construcción a lo largo de la costa este», escribe Arnoldo Valle-Levinson de la Universidad de Florida en Geophysical Research Letters. «Ese es el peor lugar para construir algo.» Prevé que las ciudades del sureste de EE.UU. se conviertan en «venecianas», propensas a las inundaciones por mareas, a medida que el calentamiento global avanza.

Debido a que los cambios de la Tierra son impulsados por actividades económicas e industriales por el modelo de libre mercado, algunos investigadores, como Jason Moore de la Universidad de Binghamton, argumentan que nuestra era actual debería llamarse el Capitaloceno. Para Moore y sus seguidores, esta es una época en la que nuestra degradación ecológica está siendo alimentada por «la desigualdad, la mercantilización, el imperialismo y más». Moore tiene razón en muchos aspectos. Sin embargo, la agenda capitalista no es la única culpable de destruir el planeta y las vidas humanas. La China comunista es igualmente criminal, el líder mundial en emisiones de gases de efecto invernadero y contribuye al 30% de todas las emisiones antropogénicas de CO2 a la atmósfera. Hay tantos delincuentes responsables de nuestras catástrofes climáticas que están decididos a mantener viva la economía de los combustibles fósiles. En julio de 2017, el Climate Accountability Institute y sus socios publicaron un informe que acusa a sólo 100 empresas de ser responsables del 71% de todas las emisiones de gases de efecto invernadero desde 1988. Si nuestros gobiernos fueran realmente democráticos y tuvieran integridad, estas empresas serían consideradas responsables de un daño incalculable al medio ambiente, a las ciudades, a las comunidades y a las familias.

Hoy en día existe un creciente consenso entre muchos intelectuales que han dedicado gran parte de su vida al movimiento ecologista en el sentido de que sólo un cambio sistémico generalizado evitará el colosal sufrimiento humano que se avecina en un futuro no muy lejano. Esto requiere una acción con visión de futuro en todos los niveles de nuestra sociedad moderna. Y esto comienza con nosotros mismos, cambios dramáticos en nuestras vidas personales y luego llegar a nuestros vecindarios, pueblos, comunidades. «Incluso si nuestros esfuerzos no pueden salvar la civilización industrial consumista«, señala Richard Heinberg, «todavía podrían tener éxito en plantar las semillas de una cultura humana regenerativa digna de sobrevivir«. Este enfoque sistémico, junto con un «despertar moral», cree Heinberg, es la única esperanza real de supervivencia ante nosotros.

Richard Gale es el Productor Ejecutivo de la Red de Radio Progresiva y ex Analista Senior de Investigación en las industrias de biotecnología y genómica.

El Dr. Gary Null es el presentador del programa de radio público sobre salud alternativa y nutricional más antiguo del país y un director de documentales ganador de múltiples premios, entre ellos Poverty Inc y Deadly Deception.

———————————————