Anthropic V Las Fuerzas Armadas de EE. UU.: Lo que esta disputa pública dice sobre el uso de IA en la guerra

(MENAFN- La Conversación) La disputa muy pública entre el Departamento de Defensa de EE. UU. (también conocido actualmente como el Departamento de Guerra) y su proveedor de tecnología de IA, Anthropic, es inusual por enfrentar el poder estatal contra el poder corporativo. En el ámbito militar, al menos, estos suelen ser aliados cercanos.

El origen de esta desacuerdo se remonta a meses atrás, en medio de críticas reiteradas del “zar” de IA y criptomonedas de Donald Trump, David Sacks, sobre las supuestas posturas woke de la compañía.

Pero las tensiones aumentaron tras informes de prensa que indicaban que la tecnología de Anthropic había sido utilizada en el violento secuestro del expresidente venezolano Nicolás Maduro por parte del ejército estadounidense en enero de 2026. Se alegó que esto causó descontento dentro de la empresa con sede en San Francisco.

Anthropic lo negó, y fuentes internas sugirieron que no encontraron ni reportaron ninguna violación de sus políticas tras la operación contra Maduro.

No obstante, el secretario de Defensa de EE. UU., Pete Hegseth, emitió un ultimátum a Anthropic. A menos que la compañía relaje su política de límites éticos antes de las 5:01 p. m. hora de Washington del viernes 27 de febrero, el gobierno estadounidense podría invocar la Ley de Defensa de 1950. Esto permitiría al Departamento de Defensa (DoD) apropiarse del uso de esta tecnología según lo considere conveniente.

Al mismo tiempo, Anthropic podría ser designada como un riesgo en la cadena de suministro, poniendo en peligro sus contratos con el gobierno. Estas medidas extraordinarias pueden parecer contradictorias, pero son coherentes con el enfoque actual de la administración estadounidense, que favorece gestos grandes y ambigüedad en las políticas.

En el centro de la disputa está la cuestión de cómo se usa el gran modelo de lenguaje (LLM) Claude de Anthropic en un contexto militar. En muchos sectores, Claude realiza tareas automatizadas como escritura, codificación, razonamiento y análisis.

En julio de 2024, la compañía estadounidense de análisis de datos Palantir anunció que se asociaba con Anthropic para “llevar los modelos de IA Claude… a las operaciones de inteligencia y defensa del gobierno de EE. UU.”. Luego, en julio de 2025, Anthropic firmó un contrato de 200 millones de dólares (150 millones de libras) con el DoD, estableciendo ciertos términos a través de su “política de uso aceptable”.

Estos términos, por ejemplo, prohíben el uso de Claude en la vigilancia masiva de ciudadanos estadounidenses o en sistemas de armas completamente autónomas que, una vez activadas, puedan seleccionar y atacar objetivos sin intervención humana.

Según Anthropic, cualquiera de estas acciones violaría su definición de “IA responsable”. Hegseth y el DoD han rechazado estas restricciones, calificándolas de excesivamente restrictivas en un entorno geopolítico marcado por la incertidumbre, la inestabilidad y líneas borrosas.

La IA responsable, insisten, debe abarcar “cualquier uso legal” de los modelos de IA por parte del ejército de EE. UU. Un memorando emitido por Hegseth el 9 de enero de 2026 afirmó:

El memorando instruyó que el término “cualquier uso legal” debe incorporarse en futuros contratos del DoD para servicios de IA en un plazo de 180 días.

Los competidores de Anthropic se están preparando

Las líneas rojas de Anthropic no prohíben la vigilancia masiva de comunidades humanas en general, solo de ciudadanos estadounidenses. Y aunque limita el uso a armas no autónomas, los múltiples usos en evolución de la IA para informar, acelerar o ampliar la violencia, en formas que limitan severamente las oportunidades de restricción moral, no están mencionados en su política de uso aceptable.

Actualmente, Anthropic tiene una ventaja competitiva. Su modelo LLM está integrado en interfaces del gobierno de EE. UU. con niveles de autorización suficientes para ofrecer un producto superior. Pero sus competidores también se están preparando.

Palantir ha expandido significativamente su negocio con el Pentágono en los últimos meses, desarrollando más modelos de IA.

Mientras tanto, Google actualizó recientemente sus directrices éticas, eliminando su promesa de no usar IA para desarrollo de armas y vigilancia. OpenAI también modificó su declaración de misión, eliminando la “seguridad” como valor central, y xAI de Elon Musk (creador del chatbot Grok) ha aceptado el estándar de “cualquier uso legal” del Pentágono.

Un punto de prueba para la IA militar

Para C.S. Lewis, el valor era la virtud principal, ya que representa “la forma de toda virtud en el punto de prueba”. Anthropic ahora enfrenta tal prueba.

El 24 de febrero, la compañía anunció la última actualización de su política de escalado responsable — “el marco voluntario que usamos para mitigar riesgos catastróficos de los sistemas de IA”. Según Time, los cambios incluyen “eliminar la promesa de no lanzar modelos de IA si Anthropic no puede garantizar mitigaciones de riesgos adecuadas de antemano”.

El director de ciencia de Anthropic, Jared Kaplan, dijo a Time: “No sentimos que, con el avance rápido de la IA, tuviera sentido hacer compromisos unilaterales… si los competidores avanzan rápidamente”.

El lenguaje ético inunda los comunicados de prensa de las empresas de Silicon Valley que quieren distinguirse de “actores malintencionados” en Rusia, China y otros lugares. Pero las palabras y acciones éticas no son iguales, porque las últimas a menudo implican un costo real en el mundo.

Que un espectáculo tan público esté ocurriendo en este momento quizás no sea casual. A principios de febrero, representantes de muchos países — pero no de EE. UU. — se reunieron por tercera vez para buscar formas de acordar sobre “IA responsable” en el ámbito militar. Y del 2 al 6 de marzo, la ONU celebrará su última conferencia para discutir cómo limitar mejor el uso de tecnologías emergentes en sistemas de armas autónomas letales.

Estos debates legales y éticos sobre el papel de la tecnología de IA en el futuro de la guerra son críticos y están atrasados. Anthropic merece crédito por resistir, aparentemente, los esfuerzos del ejército estadounidense por socavar sus directrices éticas. Pero el papel de la IA probablemente será puesto a prueba en muchas más situaciones de conflicto antes de que se alcance un acuerdo.

XAI22,34%
GROK0,06%
TRUMP-0,06%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado