El Pentágono veta a Anthropic y opta por OpenAI. Estados Unidos apuesta por un proveedor de IA alineado con sus principios de seguridad.
Ultimátum del Pentágono a Anthropic
El Pentágono presionó a Anthropic para que permitiera el uso irrestricto de sus modelos de inteligencia artificial, incluyendo aplicaciones militares y de espionaje. El plazo expiró el viernes 27 de febrero a las 17:01, y Anthropic se mantuvo fiel a sus principios, rechazando las demandas.
Anthropic ya es un “riesgo para la cadena de suministro” para el Pentágono.
Reacción y contexto
El secretario de Guerra de EE.UU., Pete Hegseth, confirmó que Anthropic representa un riesgo para la cadena de suministro y el Ministerio de Defensa cumplió su amenaza con efecto inmediato. Mientras tanto, el presidente de Estados Unidos calificó a Anthropic como una empresa “radical de izquierdas y woke”.
OpenAI toma el relevo
OpenAI aceptó trabajar con el Pentágono bajo principios estrictos de seguridad. Su CEO, Sam Altman, destacó la prohibición de vigilancia masiva y la responsabilidad humana en el uso de la fuerza. OpenAI implementará salvaguardas técnicas para garantizar el correcto uso de sus modelos.
- OpenAI será el nuevo proveedor de IA para el Pentágono y otras agencias.
- Se prohibe la vigilancia masiva nacional y el uso autónomo de armas sin supervisión humana.
- Se han anunciado medidas para garantizar la seguridad y el comportamiento ético de los modelos.
Implicaciones y polémicas
El veto a Anthropic afecta operaciones estratégicas recientes, incluida la detención de Nicolás Maduro, y complica proyectos como los de Palantir. Además, se reveló que el Pentágono intentó negociar para recolectar datos personales, algo todavía incierto respecto a OpenAI.
Conclusión
Estados Unidos redefine la relación entre defensa y desarrollo de IA, priorizando proveedores alineados con sus valores de seguridad y ética.
Fuente: Xataka




