Los líderes tecnológicos advierten sobre escenarios apocalípticos de ciencia ficción, mientras que los militares ya están militarizando la inteligencia artificial.
Por Louis Mahon, 29 de agosto de 2025

La ética de la IA es un tema candente en el mundo de la inteligencia artificial. Aparece en los discursos de apertura de las principales conferencias y mueve equipos enteros dedicados a la seguridad en las grandes empresas; al mismo tiempo, los líderes gubernamentales, industriales y académicos insisten en lo mucho que están trabajando para garantizar que la IA se desarrolle de forma ética. Ostensiblemente, se trata de una respuesta a los temores fundados sobre los posibles (y probados) inconvenientes de la tecnología, como su amenaza para el mercado laboral o su potencial para causar daños en entornos de salud mental.
Pero estas conversaciones omiten una consideración seria de la aplicación más aterradora de todas: el uso de la inteligencia artificial para construir armas. El uso de la IA en el ejército no recibe tanta atención mediática como otras industrias, pero eso no significa que no esté ocurriendo. Y si la IA es realmente tan capaz que amenaza con sustituir nuestros medios de vida, ¿cuánto más amenazador es imaginar esa misma capacidad dirigida deliberadamente a causar muerte y destrucción?
Dicha capacidad se encuentra, por ahora, en sus fases incipientes. La gran mayoría del armamento existente en la Tierra no tiene nada que ver con la inteligencia artificial. Pero Estados Unidos y, por lo que se ve, China, apuestan por que la próxima generación de armas sí lo haga. La IA podría remodelar pronto el poder militar en varias áreas clave, como el análisis de inteligencia, el guiado y control de vehículos y la adquisición de objetivos, todas ellas áreas en las que el aprendizaje automático ha mejorado significativamente en los últimos años.
Los drones son una aplicación obvia para el guiado y control por IA, pero para poder implantarse en ellos, la IA aún necesita resolver algunos retos técnicos más. En primer lugar, necesita ser más funcional en hardware restringido, es decir, en dispositivos con una duración de batería y una potencia de procesamiento limitadas (véase: los drones, que sólo tienen energía suficiente para permanecer en vuelo unos 30 minutos y, por lo tanto, sólo pueden destinar un pequeño porcentaje de energía al procesamiento de datos). En segundo lugar, necesita integrarse en sistemas de baja latencia, es decir, aquellos con tiempos de reacción casi instantáneos. En tercer lugar, tiene que ser capaz de trabajar con datos imprecisos e incompletos, porque ése es el único tipo de datos que se pueden obtener en tiempo real en el campo de batalla.
Si a un gran modelo de visión por ordenador de última generación se le mostrara un vídeo limpio de una concurrida calle de una ciudad, podría localizar fácilmente la cabeza de todos los humanos; pero intente lo mismo con un modelo lo suficientemente pequeño como para caber en el hardware de un dron, utilizando imágenes de baja calidad, y probablemente no sería utilizable. Aunque es posible que esto cambie pronto. Estos tres obstáculos son áreas activas de investigación, y ya se están empezando a probar sistemas automáticos de detección de objetivos en el campo de batalla, que es la única forma real de averiguar si una nueva tecnología militar funcionará.
La Operación SpiderWeb de Ucrania, de junio de 2025, constituyó una de estas pruebas. Introdujo furtivamente más de 100 aviones no tripulados a través de la frontera rusa y los lanzó para atacar aviones bombarderos rusos de largo alcance estacionados en bases militares. Zelensky afirmó que el ataque alcanzó a 41 aviones por valor de 7.000 millones de dólares. Putin no ha hecho comentarios sobre las cifras y afirma que la operación fue un ataque terrorista contra civiles, pero la magnitud de su respuesta confirma que la operación fue un éxito militar, lo que significa que infligió mucho daño.
Normalmente, los aviones no tripulados se pilotan transmitiendo señales de vídeo y datos de los sensores a un piloto humano en la base, que entonces mueve un joystick, que envía su propia señal de vuelta diciendo dónde moverse y a qué disparar. Sin embargo, las señales inalámbricas son notoriamente poco fiables -especialmente con una fuente en movimiento- y pueden ser interferidas por el enemigo. La Operación Spiderweb seguía utilizando sobre todo pilotos humanos a distancia, pero sus drones tomaban algunas decisiones de forma autónoma, como la navegación y los pequeños ajustes de posición. Además, si la conexión se perdía por completo, los drones contaban con un sistema de puntería a bordo.
No está claro exactamente qué parte de la operación fue automatizada; puede que Ucrania quiera exagerar el papel de la IA para que su ejército parezca más avanzado, pero forma parte de una serie de avances hacia una mayor autonomía de los drones. Los drones han sido utilizados ampliamente tanto por Ucrania como por Rusia, y está claro que van a ser una pieza clave en futuros conflictos. En la actualidad, «interferirlos» es una de las mejores defensas porque puede acabar con varios drones a la vez. La táctica consiste en utilizar la radiofrecuencia para interferir las señales entre el dron y el piloto. Una vez que se interfiere la banda de frecuencia adecuada, todo lo que utilice esa banda en la zona dejará de funcionar. Si los drones pudieran funcionar de forma totalmente autónoma -es decir, volar hasta la zona del objetivo, encontrarlo, apuntar con precisión y disparar-, no necesitarían prácticamente ninguna señal externa. La única defensa sería derribarlos físicamente, de uno en uno (difícil si hay un enjambre grande), utilizando misiles que son más caros que los propios drones. Este podría ser el tipo de tecnología que cambiaría las reglas del juego y a la que las grandes potencias militares han echado el ojo.
Mientras tanto, en el lugar donde se registra la segunda tasa más alta del mundo de muertes causadas por el hombre, las Fuerzas de Defensa israelíes están encabezando un área diferente de militarización de la IA. A diferencia de la guerra de Ucrania, entre dos ejércitos estatales avanzados, en Gaza hay un poderoso ejército estatal por un lado y un pequeño grupo paramilitar, además de una gran población civil desarmada, por el otro. Esto significa que las FDI no necesitan IA para el combate en primera línea, sino para una vigilancia intensa, de modo que puedan rastrear y matar a cualquiera sospechoso de ser una amenaza. (Puede que las FDI hayan matado a más de 60.000 palestinos en Gaza, pero todavía hay más de 2 millones de personas vivas allí).
Seguir los movimientos de incluso el 10% de la población de Gaza significa procesar muchos datos: localizaciones de teléfonos móviles, grabaciones de vídeo, líneas telefónicas intervenidas, etc. Sólo es posible con mucha automatización, y eso es precisamente lo que han utilizado las FDI. Un sistema automatizado, Lavender, identifica a posibles operativos de Hamás a partir de una base de datos, a los que luego un humano puede dar una aprobación superficial antes de ordenar un ataque. El sistema se entrena utilizando ejemplos conocidos de gazatíes con alguna implicación en Hamás o la Yihad Islámica Palestina, y aprende patrones generales en su comportamiento. Entonces, cuando encuentra nuevas personas que muestran los mismos patrones aproximados, las caracteriza como objetivos. Un oficial superior de las FDI declaró a la publicación israelo-palestina +972que tiene «mucha más confianza» en Lavender que en los soldados humanos, porque la tecnología elimina la emoción de la ecuación: «Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil».
Esta tecnología puede acoplarse a otros sistemas automatizados, como el grotescamente llamado «¿Dónde está papá?», que rastrea el momento en que un objetivo entra en un lugar determinado, normalmente su casa familiar, donde puede ser asesinado fácilmente. Como dijo la fuente de las FDI: «Es mucho más fácil bombardear una casa familiar». Es posible que «¿Dónde está papá?» también utilice el aprendizaje automático para predecir cosas como futuras visitas o cuánto durarán. Sea cual sea el aprendizaje automático exacto utilizado en Lavender y sistemas afines, no se parece en nada a ChatGPT (las técnicas son mucho más antiguas), pero sigue permitiendo una acción militar a una escala sin precedentes. En el pasado, era imposible para un Estado vigilar los movimientos de incluso una fracción de un país pequeño, lo que hacía muy difícil derrotar a una población ampliamente unida en su contra. Pero a medida que las máquinas mejoran en la recomendación de objetivos, la balanza se inclina más a favor de una minoría rica y avanzada tecnológicamente, y se aleja de una población mucho mayor y peor equipada.
Así que la IA está empezando a utilizarse en varias partes de la «cadena de muerte». Lavender y ¿Dónde está papá? se refieren a los dos primeros pasos: identificar y encontrar; mientras que la guerra de drones vista en Ucrania se refiere a los dos últimos: expedir y destruir. Podría preguntarse cuál es el problema, dentro de las omnipresentes atrocidades de la guerra. Tanto si alguien es identificado por una máquina o por un humano, abatido por un dron o por un soldado, muere de la misma manera, y aunque la máquina puede cometer errores, también puede hacerlo el humano. Incluso si se piensa en términos tan utilitarios, hay algunas razones para preocuparse por la actual militarización de la inteligencia artificial.
En primer lugar, su utilización podría sobrepasar los marcos para un uso responsable. Tras la invención de la bomba atómica, pasaron 20 años antes de que se iniciara siquiera la negociación de un tratado de no proliferación, y varias décadas más para que se promulgara el Tratado de Prohibición de Pruebas. No es probable que veamos una sola arma de IA tan importante como la bomba nuclear, pero acumulativamente puede seguir cambiando lo que las armas son capaces de hacer, y ese proceso puede ocurrir más rápido de lo que podemos ponernos de acuerdo sobre nuevas leyes o tratados.
En segundo lugar, podría hacer a todo el mundo a la vez más poderoso y más vulnerable: una situación conocida en teoría militar como la paradoja capacidad-vulnerabilidad. Por ejemplo, el uso del petróleo hizo a los ejércitos de la Segunda Guerra Mundial mucho más capaces: no tuvieron más remedio que pasar a utilizarlo -en tanques, barcos, aviones y producción de bombas- de lo contrario, se quedarían atrás. Pero también significaba que si se quedaban sin petróleo, todo se vendría abajo. Para que un ejército utilice la IA, necesita asegurarse un suministro constante de infraestructura informática, trabajadores bien formados que la entiendan y muchos datos. Si pierde incluso una de estas cosas, todo el sistema podría romperse.Cuando ambas partes sacrifican vulnerabilidad por mayor capacidad, el cálculo teórico del juego cambia. Ahora, un primer ataque parece más atractivo, porque se es capaz de paralizar al adversario antes de que pueda responder.
Por último, la mera incertidumbre sobre cómo podría desarrollarse la IA en el futuro crea una inestabilidad general en las relaciones geopolíticas. Hace que todo el mundo sea más desconfiado y propenso a pensar a corto plazo, que ya es algo que empuja a la escalada.
La guerra y la geopolítica son extremadamente complicadas, y la inclusión de la inteligencia artificial en la ecuación las hace aún más difíciles de entender. Deberíamos dedicar muchos esfuerzos a averiguar cuáles son los principios correctos por los que regirnos e intentar hacernos una idea de cómo queremos que esto se desarrolle. Por eso es tan decepcionante que el movimiento que se autodenomina «Ética de la IA» no haga prácticamente ninguna mención al tema. Los problemas en los que sí se fija incluyen la idea de que los sistemas de IA podrían aprender a engañar o desobedecer a los humanos, y que si no nos esforzamos por «alinearlos», podrían empezar a perjudicarnos intencionadamente. La plausibilidad de esta amenaza sigue siendo objeto de debate. Otros subcampos de la ética de la IA sí abordan problemas claros, pero de una importancia comparativamente menor -como la forma en que los chatbots pueden reflejar los prejuicios sociales, por ejemplo, asumiendo que un médico es un hombre o perpetuando estereotipos. Otros enfoques ni siquiera son problemas éticos en absoluto, en el sentido de que no implican cuestionar lo que está bien o mal, como asegurarse de que los diagnósticos médicos de la IA son precisos, o de que los coches sin conductor no se estrellan.
El movimiento habla a veces de prevenir el mal uso por parte de los «malos actores», lo que al menos reconoce que la IA puede permitir que los humanos se dañen unos a otros. Pero esto no se acerca al meollo de la cuestión. En primer lugar, se centra casi por completo en los chatbots, construyendo escenarios semiplausibles en los que permiten a un individuo hacer un daño terrible -por ejemplo, ayudándole a fabricar un arma biológica-, a pesar de que el control autónomo de vehículos y la detección de objetos tienen usos mucho más directos en el armamento. En segundo lugar, estos supuestos malos actores, aunque no se especifican en detalle, claramente no incluyen, por ejemplo, al Departamento de Defensa de EE.UU., lo que significa que se ignora al grupo del mundo que más dinero está gastando en armamento de IA.
Si analizamos el gasto del Departamento de Defensa, podríamos encontrar una explicación parcial de la evidente laguna en el discurso ético sobre la IA. Resulta que muchos investigadores y profesionales de la IA reciben financiación militar. Dependiendo de cómo se calcule, puede que muchos la reciban; la brecha cultural entre Silicon Valley y el complejo militar-industrial no impide que el primero acepte decenas, si no cientos, de miles de millones de dólares del segundo. Parte de esta financiación proviene de contratos del Departamento de Defensa, tradicionalmente absorbidos por empresas como Lockheed Martin. Gigantes como Amazon y Microsoft reciben contratos del Departamento de Defensa, al igual que Palantir y una serie de startups de IA militar.
El dinero también llega en forma de subvenciones de investigación a universidades y otros institutos. La Universidad Carnegie Mellon tiene más de 20 contratos con el DoD, varios de los cuales financian la investigación de la IA, incluyendo, más de 3 millones de dólares del Grupo de Trabajo de Inteligencia Artificial del Ejército de EE.UU. para investigar herramientas de reconocimiento para aumentar la «letalidad y capacidad de supervivencia» de los soldados , unos 5 millones de dólares vagamente relacionados con la «IA fusion», y unos 13,4 millones de dólares para «fortificar la seguridad y defensa de la nación». En total, el Departamento de Defensa invirtió más de 3000 millones de dólares en investigación básica en 2022, y su presupuesto ha seguido creciendo desde entonces. Los temas exactos que les interesan son confidenciales para evitar que otros países infieran su estrategia, pero dada su priorización en este ámbito, es probable que la investigación en IA represente una parte sustancial. Y esa parte se destina únicamente a investigación pura (hay 80 000 millones de dólares adicionales para implementarla en aplicaciones militares). Gran parte del material de las grandes conferencias de IA podría considerarse como financiación de la investigación básica. China gasta un tercio de lo que gasta EE. UU. y mantiene un control aún más estricto sobre los detalles, pero, de nuevo, se podría suponer que una parte significativa se destina a la investigación en IA.
¿Adónde va a parar este dinero? Sin duda es posible encontrar trabajos de investigación sobre IA, tanto de universidades como de laboratorios industriales, con apoyo explícito de DARPA (una agencia dependiente del Departamento de Defensa), y es posible que haya muchos más que le resten importancia a la conexión. En la mayoría de las conferencias se exige que los autores de nuevas investigaciones sobre IA comenten los daños potenciales de lo que están construyendo. Si la tecnología puede utilizarse en un arma, entonces las respuestas correctas a esa pregunta son «podría utilizarse para matar gente», «podría exacerbar la vigilancia violenta del Estado y la limpieza étnica» o «podría contribuir a la carrera armamentística de la IA y a la desestabilización de las relaciones geopolíticas». Pero difícilmente dirá algo tan desafiante a sus financiadores. Si su investigación fue financiada específicamente por los militares, difícilmente va a reconocer la vigilancia masiva, la muerte y la destrucción como daños potenciales: esos resultados son el objetivo.
Otro elemento clave para entender por qué la ética de la IA se centra en lo que lo hace, son las creencias más amplias del pequeño número de personas que impulsan el movimiento. Gran parte del mundo de la IA está liderado por Silicon Valley, especialmente OpenAI y Anthropic, por lo que la Ética de la IA ha sido impregnada de su particular visión del mundo. Eso significa que sigue unos pocos dogmas centrales: que la ciencia y el progreso tecnológico pueden resolver casi todos los problemas actuales; que la IA, y en concreto la LLM, mediante la rápida aceleración de la ciencia y la tecnología, transformará radicalmente la mayoría de los aspectos de la vida en los próximos años; y que es esencial que EE.UU. lidere esta revolución, porque es el único país que utilizará este poder incalculable con benevolencia.
Cualquier problema que no resuene con este marco se deja de lado, especialmente si desafía la idea de que Estados Unidos es una fuerza unilateral para el bien. Bajo esta visión del mundo, es aceptable hablar de un escáner médico mal diagnosticado, pero es mucho más incómodo considerar que las FDI utilizan el aprendizaje automático y los servicios informáticos proporcionados por Estados Unidos para planificar el bombardeo de viviendas familiares. Aunque se puede hacer ver que lo primero es muy preocupante, no cuestiona ninguno de los dogmas centrales, mientras que lo segundo sin duda lo hace.
La fantasía distópica de peligro favorita es la de una superinteligencia renegada, una que persigue su objetivo con tanta eficacia que empieza a matar humanos. (Por ejemplo, la instrucción de la IA es erradicar el cáncer y lo consigue exterminando a la raza humana). Estos escenarios juegan a favor de la creencia de que los productos basados en la inteligencia artificial son inmensamente poderosos y presentan a sus creadores como los nobles guardianes de este gran poder. Gracias a Dios que somos nosotros, los buenos, los mejores del mundo en la construcción de LLM, porque nos encargaremos de hacerlo con justicia, a diferencia de esos otros tipos . Por supuesto, «otros tipos» aquí significa esencialmente China: el único otro país capaz de producir LLM líderes en el mundo.
Cuando la empresa china DeepSeek lanzó su modelo R1 en enero de 2025, muchos en Silicon Valley reaccionaron como si fuera un acto de agresión del Partido Comunista Chino. Hubo una oleada de llamamientos para que EE.UU. mejorara su juego en la carrera armamentística de la IA, y Meta incluso reunió «salas de guerra» de emergencia para analizar en qué les habían superado. La competencia normal del mercado se replanteó como si los ingenieros de Silicon Valley tuvieran la tarea de defender la propia democracia.
Esto da otra perspectiva a los «malos actores» mencionados anteriormente. Restringir las exportaciones de GPU o prohibir DeepSeek puede venderse ahora en realidad como ética de la IA: una forma de garantizar el triunfo de la libertad.
Esto proviene de la creencia de que quien controle las LLM estará en posición de controlar todo lo demás. La misma lógica es utilizada por aquellos lo suficientemente halcones como para defender directamente la necesidad de construir armas de IA: China lo está haciendo, dicen, nos van a derrotar, a menos que nosotros también lo hagamos. El director ejecutivo de Anduril, Palmer Luckey, dio una charla TED en abril de 2025 titulada «El arsenal de IA que podría detener la Tercera Guerra Mundial»,en la que describía un escenario catastrofista en el que China llevaría a cabo una invasión a gran escala de Taiwán. Luckey argumentó que esto podría ser pronto una realidad, a menos que EE.UU. disponga de un vasto arsenal impulsado por IA para repeler el ataque de China. A primera vista, sus argumentos son convincentes. Aunque hay diferentes opiniones sobre la probabilidad de que se produzca tal escenario catastrófico, existe un amplio acuerdo en que es una posibilidad.. La expansión naval china bajo Xi Jinping, unida a su posición coherente sobre la necesidad de la reunificación, da miedo, en efecto, pero reconforta y puede parecer sensato reforzarse militarmente como respuesta. Pero, ¿adónde conduce este camino? El consejero delegado de Palantir, Alex Karp , declaró recientemente a la CNBC en relación con la carrera armamentística de la IA: «O ganamos nosotros, o ganará China». Karp expresaba la misma opinión -comprometerse con el juego de suma cero- pero también daba a entender que esta carrera tiene una línea de meta; que un día , EE.UU. ganará y todo el problema quedará resuelto.
El director general de Anthropic, Dario Amodei, parece creer algo parecido, al afirmar que las democracias «pueden ser capaces de convertir su superioridad en IA en una ventaja duradera», de modo que «nuestros peores adversarios… renuncien a competir con las democracias para recibir todos los beneficios y no luchar contra un enemigo superior». Ésta es una visión muy optimista de cómo funcionan las carreras armamentísticas, y delata una falta de comprensión de la perspectiva china. Un elemento central de la identidad y los valores chinos es su histórico «Siglo de Humillación», que comenzó con las Guerras del Opio en el siglo XIX, cuando la superioridad naval occidental impuso por la fuerza acuerdos comerciales injustos y perjudiciales. La idea de aceptar algo parecido a una repetición de la ronda no es algo que China haría jamás.
Por desgracia, esta realidad se les escapa a los responsables políticos actuales. Cuando la administración Biden restringió las exportaciones de GPU a China en 2022, adujo principalmente razones de seguridad nacional-suponiendo que China podría utilizarlos para armas que cambiarían el juego. Pero las restricciones iban dirigidas a los chips utilizados para las LLM, que tienen poca utilidad militar a corto plazo. El efecto fue enemistarse con China, desencadenar recuerdos de las Guerras del Opio e inclinar el mercado hacia las empresas estadounidenses. Con el tiempo, China podría simplemente producir sus propios chips o diseñarlos basándose en chips más básicos, como ya hizo DeepSeek. Esta estrategia permite ganar, como máximo, unos pocos años, a la vez que aumenta la tensión.
Ese «cortoplacismo» es el fracaso de todas estas perspectivas. Cada una acepta un futuro de carreras armamentísticas y antagonismo, e ignora el único resultado que no es terrible: una resolución pacífica. Mediante el compromiso y unas cuidadosas maniobras diplomáticas, sigue siendo posible que Taiwán y la RPC reanuden el diálogo y se enfríen, y que las relaciones entre China y Occidente se estabilicen. Esto es a lo que deberíamos dedicar nuestra energía para conseguirlo. En lugar de ello, la comunidad ética de la IA se sienta cómodamente dentro de la visión del mundo de la supremacía estadounidense; sin ensuciarse las manos mencionando realmente a los militares, refleja en gran medida el tecno-hawkismo de Luckey y Karp.
Al final, pues, el silencio del movimiento Ética de la IA respecto a su floreciente uso en el ejército no es sorprendente. El movimiento no dice nada controvertido a Washington (incluido el complejo industrial militar), porque eso es una fuente de dinero, así como un sello de importancia inestimable. Está bien -incluso se anima a ello- hacer indirectas veladas a China, Rusia o Corea del Norte, a los «malos actores» a los que a veces se refiere, pero por lo demás la industria evita cualquier cosa «política». También suele enmarcar las cuestiones como centradas en los LLM, porque quiere pintar los productos tecnológicos de sus líderes como de vital importancia en todos los aspectos.
Esto hace un poco incómodo sacar a colación las aplicaciones militares, porque es bastante obvio que los LLM tienen poco valor militar en la actualidad. Personalmente llegué a la investigación de la IA hace casi diez años, a partir de una profunda curiosidad por la naturaleza de la mente y del yo. En aquel momento todavía era un tema un tanto marginal y, a medida que el campo fue explotando en la conciencia pública, me he horrorizado al ver cómo se entrelazaba con los sistemas más poderosos y destructivos del planeta, incluido el complejo militar-industrial y, potencialmente, el estallido de los próximos grandes conflictos mundiales. Para encontrar el camino correcto, necesitamos pensar mucho más profundamente hacia dónde vamos y cuáles son nuestros valores. Necesitamos un auténtico movimiento de ética de la IA que cuestione las fuerzas y los supuestos que configuran el desarrollo actual, en lugar de imbuirnos de los puntos de vista transmitidos por unos pocos líderes, a menudo equivocados. Hay muchas nuevas preguntas difíciles a las que se enfrenta el mundo de la IA, y probablemente muchas más en camino, y hasta ahora apenas hemos tenido el valor de plantearlas.
———————————
Artículos relacionados:
Así participan las universidades españolas en proyectos militares financiados por la UE