IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica

En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas desarrolladoras de sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Como consecuencia de esta directiva, a finales del pasado mes de febrero, transcendió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos que se convirtió en viral. En el centro de la disputa estaban dos líneas rojas fijadas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilizara para la vigilancia masiva interna o para sistemas de armas totalmente autónomos. El gobierno de Estados Unidos exigió eliminar estas líneas rojas y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales dejar de utilizar los productos de Anthropic, y el Pentágono prohibió a sus contratistas mantener relaciones comerciales con la empresa.

Seguir leyendo

 El encontronazo entre Anthropic y el Pentágono representa una lucha fundamental por determinar quién fija los límites del uso militar de la IA en ausencia de una legislación clara y actualizada  

En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas desarrolladoras de sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Como consecuencia de esta directiva, a finales del pasado mes de febrero, transcendió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos que se convirtió en viral. En el centro de la disputa estaban dos líneas rojas fijadas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilizara para la vigilancia masiva interna o para sistemas de armas totalmente autónomos. El gobierno de Estados Unidos exigió eliminar estas líneas rojas y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales dejar de utilizar los productos de Anthropic, y el Pentágono prohibió a sus contratistas mantener relaciones comerciales con la empresa.

Anthropic también ha sido amenazada con aplicarle la Ley de Producción de Defensa (Defense Production Act), una norma de tiempos de la Guerra Fría que otorga al presidente amplios poderes para obligar a la industria a apoyar la defensa nacional. La incoherencia de esta medida es obvia, ya que, por un lado, el Pentágono considera a Anthropic como un riesgo para la seguridad y, por otro, amenaza con obligarla a proporcionar su tecnología, lo que implica considerarla indispensable para la defensa nacional.

Este conflicto va mucho más allá de una disputa contractual. Representa una lucha fundamental por determinar quién fija los límites éticos del uso militar de la IA en ausencia de una legislación clara y actualizada. A medida que los sistemas de IA se vuelven más potentes y se integran más profundamente en las operaciones de seguridad nacional, la brecha entre la capacidad tecnológica y la supervisión democrática se ha ampliado.

Ello pone de relieve una realidad muy preocupante: cuando los estados renuncian a regular con el fin de poner límites a la IA (como ocurre en Estados Unidos) es ilusorio esperar que las grandes corporaciones tecnológicas se impongan límites voluntariamente si ello amenaza sus márgenes de beneficio o su posición estratégica. De hecho a lo largo del último año, varias grandes tecnológicas han renegado de sus compromisos éticos previos para asegurar contratos militares muy lucrativos.

Google es un ejemplo revelador. En 2018, tras las protestas de sus empleados por su participación en el Proyecto Maven (un programa del Pentágono que utilizaba IA para analizar imágenes de drones), la empresa se retiró de Maven y estableció principios éticos que excluían aplicaciones militares y de vigilancia masiva. Sin embargo, en febrero de 2025 eliminó discretamente esas prohibiciones de su sitio web, justificando el cambio por la competencia geopolítica y las necesidades de seguridad nacional.

OpenAI siguió un camino similar. En 2024 levantó su prohibición general sobre aplicaciones militares. En 2025, durante su reestructuración como entidad con fines de lucro, eliminó el concepto “IA segura” de su declaración de misión, comprometiéndose vagamente a “garantizar que la inteligencia artificial general beneficie a la humanidad”, sin mención explícita a la seguridad. No es difícil advertir que suprimir esa referencia dificultará exigir responsabilidades. Por su parte, xAI, de Elon Musk, fue aún más lejos al firmar un acuerdo que permite que su modelo Grok se utilice en aplicaciones militares sin restricciones. Meta, por su parte, anunció en noviembre de 2024 que pondría sus modelos Llama a disposición del gobierno de Estados Unidos para su uso en seguridad nacional.

Incluso si una IA generativa segura fuera un objetivo genuino de las grandes tecnológicas, sería extraordinariamente difícil de alcanzar. El motivo es la existencia del problema técnico de las llamadas “alucinaciones” (respuestas falsas presentadas con total apariencia de coherencia). Este problema no puede eliminarse por completo porque es inherente a la propia arquitectura probabilística de estos sistemas. En un contexto militar, este problema no es menor ya que puede traducirse en errores en la identificación y selección de objetivos, con consecuencias irreversibles. Algunos errores costarán vidas, otros costarán muchas vidas. Algunos podrían provocar nuevas escaladas de los conflictos armados (una matanza masiva de inocentes bien podría hacerlo). En el peor de los casos, una serie de escaladas desencadenadas por fallos inducidos por la IA generativa podría desembocar en una guerra nuclear. Dada la situación actual en Oriente Medio, esta preocupación no es meramente académica.

En este contexto, es importante aclarar que Anthropic no rechaza en absoluto participar en aplicaciones militares, todo lo contrario. Dario Amodei, durante la Cumbre de IA de París en febrero de 2025, utilizó la excusa de la amenaza que supone que gobiernos autoritarios establezcan una supremacía militar en inteligencia artificial como argumento para acelerar el liderazgo de Estados Unidos en el ámbito militar. De hecho, Claude, su familia de modelos de IA, ha sido utilizado activamente por las agencias de inteligencia y defensa de Estados Unidos. Por ejemplo, Claude fue usado, a través de una colaboración con Palantir, una empresa que gestiona contratos multimillonarios con el ejército de Estados Unidos, en una operación militar estadounidense contra el expresidente venezolano Nicolás Maduro.

Por otra parte, Anthropic anunció que abandonaba su compromiso de seguridad la misma semana de su enfrentamiento con el Departamento de Guerra. Esto significa que está eliminando un pilar central de su política de desarrollo responsable mediante la cual se comprometía a no entrenar nunca un sistema de IA sin poder garantizar de antemano que sus medidas de seguridad eran adecuadas. Aunque la empresa afirma que no está renunciando a la seguridad, está sustituyendo las garantías previas al despliegue por compromisos post-despliegue más flexibles, como por ejemplo informes de riesgo. No resulta precisamente alentador que una empresa que ha hecho de la seguridad el eje central de su identidad adopte ahora este giro.

Todo ello podría sugerir una lectura más escéptica de la postura de Dario Amodei: la posibilidad de que pudiéramos estar ante un caso de ethics washing. Es decir, que la formulación pública de líneas rojas éticas sea, al menos en parte, una estrategia destinada a lavar la cara a Anthropic en un mercado cada vez más competitivo y a blindar su marca ante reguladores e inversores. Desde esta perspectiva, la negativa a determinados usos no excluiría otros tipos de colaboración militar igualmente problemáticos, sino que trazaría un límite moral cuidadosamente calibrado, es decir lo suficientemente restrictivo para proyectar integridad, pero lo bastante flexible para mantener abierta la posibilidad de contratos estratégicos. La cuestión, entonces, no es solo la existencia de líneas rojas, sino cómo se definen, quién las audita y qué incentivos económicos las rodean.

El papel de OpenAI en este enfrentamiento entre Anthropic y el Pentágono ilustra perfectamente la ambivalencia imperante en el Silicon Valley. Aunque Sam Altman reafirmó internamente líneas rojas similares y expresó públicamente su apoyo a Dario Amodei, anunció un acuerdo con el Pentágono el mismo día en que Anthropic era vetada, todo ello mientras negociaba activamente sus propios contratos con el Departamento de Guerra. Esta simultaneidad reveló la evidente hipocresía de Altman: respaldo retórico a la resistencia ética, por un lado, y consolidación y ampliación de contratos militares por otro. Los detalles contractuales no se hicieron públicos, lo que alimentó la percepción de que el gobierno premiaba la cooperación y castigaba la resistencia.

En última instancia, este episodio plantea una cuestión central para las democracias: cómo equilibrar seguridad, poder tecnológico y derechos fundamentales. Si las empresas no tienen, o abandonan, límites éticos por presión económica o política, las salvaguardas desaparecen. Si el Estado utiliza su poder para poder usar la IA sin restricciones éticas o incluso violando leyes nacionales e internacionales, como es el caso en Estados Unidos, la autonomía moral corporativa desaparece. Y si, además, las proclamaciones éticas corporativas funcionan como herramientas de posicionamiento estratégico, mediante ethics washing, más que como compromisos verificables, el riesgo no es solo la militarización de la IA, sino también la banalización del propio lenguaje ético.

El desenlace de este conflicto marcará el futuro de la gobernanza democrática de la IA en el ámbito militar. Lamentablemente, nada en los incentivos políticos, económicos y geoestratégicos actuales invita al optimismo sobre ese futuro. Ante este panorama, quizá la única forma de ejercer presión democrática real sea impulsar un boicot consciente y sostenido a la IA generativa que estas grandes corporaciones están desplegando, negándonos como ciudadanos y consumidores a legitimar y financiar, con nuestro uso, un modelo tecnológico cada vez más alineado con la lógica militar y el poder sin contrapesos éticos e incluso saltándose la legalidad.

Es importante señalar que un boicot generalizado tendría un impacto macroeconómico prácticamente irrelevante. Sin embargo, y de eso se trata, tendría consecuencias negativas para las corporaciones detrás de la IA generativa. Según un estudio de Gartner, el 80% del uso de la IA generativa corresponde a aplicaciones no profesionales —entretenimiento o sustitución de buscadores clásicos de información—, mientras que el 20% restante, profesional, apenas incide en la economía. Un artículo del Washington Post del 23 de febrero de 2026, citando un análisis de Goldman Sachs, señalaba que las inversiones masivas en IA generativa en Estados Unidos contribuyeron “prácticamente cero” al crecimiento económico. Por su parte, el premio Nobel de Economía Daron Acemoglu, en su artículo The Simple Macroeconomics of AI, publicado por el National Bureau of Economics Research en mayo de 2024, estimó un impacto muy poco significativo de la IA generativa sobre la productividad.

No hay, pues, excusas de naturaleza económica que justifiquen mantenernos al margen. Cada uso, cada suscripción, alimenta un modelo tecnológico que consolida el poder militar y corporativo sobre nuestras vidas. ¿Seguiremos siendo cómplices con nuestro silencio?

 Feed MRSS-S Noticias

Te puede interesar