Cali, marzo 30 de 2026. Actualizado: lunes, marzo 30, 2026 19:13
La compañía comunicó el 28 de febrero de 2026 un contrato clasificado con el Pentágono que, según OpenAI, incluye guardrails técnicos, despliegue en la nube y personal autorizado en la ejecución
OpenAI anuncia acuerdo con el Departamento de Guerra de EE. UU. y promete límites claros sobre vigilancia, armas y decisiones automatizadas
OpenAI informó el 28 de febrero de 2026 que alcanzó un acuerdo con el Departamento de Guerra (DoW, el nombre que usa en su comunicado) para desplegar sus sistemas avanzados de inteligencia artificial en entornos clasificados.
La empresa asegura que el contrato incluye “más guardrails” (protecciones) que acuerdos previos y enumera tres líneas rojas: no permitir el uso para vigilancia doméstica masiva, no permitir que sus modelos dirijan armas autónomas y no permitir su uso para decisiones automatizadas de alto impacto, como sistemas tipo “crédito social”.
Qué contiene el acuerdo y por qué importa
OpenAI detalla en su nota pública que el despliegue será “solo en la nube” y que la compañía mantendrá el control de su “safety stack” —un conjunto de capas técnicas y procedimientos diseñados para limitar usos peligrosos del sistema—.
También aclara que no entregará modelos con “guardrails apagados” ni versiones sin entrenamiento en seguridad, y que no permitirá desplegar modelos en dispositivos “edge” (por ejemplo, en equipos localizados en el terreno) precisamente para evitar usos que podrían habilitar armas autónomas.
La compañía además incorpora cláusulas contractuales y compromiso de personal con habilitación de seguridad (cleared personnel): ingenieros y investigadores de OpenAI con autorización trabajarán “en el bucle” con el DoW, según el comunicado.
OpenAI afirma que este arreglo les permite verificar independientemente que sus líneas rojas no se vulneren, incluyendo la ejecución y actualización de clasificadores y controles.
Fragmentos clave del contrato
El texto que la propia OpenAI publica incluye párrafos contraídos en los que se dice que el DoW “podrá usar el sistema de IA para todos los fines lícitos, consistentes con la ley aplicable y protocolos de supervisión”, pero que el sistema “no se usará para dirigir de forma independiente armas autónomas” y que cualquier empleo en sistemas autónomos o semiautónomos deberá pasar por verificación, validación y pruebas según la Directiva DoD 3000.09 (25 de enero de 2023).
El contrato también remite a marcos legales de inteligencia y privacidad: respeto a la Cuarta Enmienda, la Ley de Seguridad Nacional de 1947, la Ley de Vigilancia de Inteligencia Extranjera (FISA) de 1978, la Orden Ejecutiva 12333, y directivas del DoD que exigen un propósito definido para actividades de inteligencia sobre extranjeros.
Se establece que el sistema “no se usará para la monitorización indiscriminada de la información privada de personas en EE. UU.” y que no se empleará en actividades de policía doméstica salvo lo permitido por la ley (por ejemplo, el Acta de Posse Comitatus).
Cómo afectaría esto a la ciudadanía
OpenAI insiste en que el acuerdo, tal como está redactado, excluye usos que afectarían directamente a la población civil —vigilancia masiva o control autónomo de armas— y que las protecciones legales vigentes en Estados Unidos refuerzan esas garantías. Desde la perspectiva práctica, la diferencia técnica entre “nube” y “edge” importa: un despliegue en la nube implica que los modelos corren en servidores centralizados controlados por OpenAI y no en dispositivos locales que podrían operar de forma independiente en el campo.
Explicando conceptos clave (breves)
- Modelo de lenguaje grande (LLM): es un tipo de IA entrenada con enormes cantidades de texto para generar o resumir lenguaje, por ejemplo para redactar un informe o contestar preguntas.
- Agente: en IA, un agente es un sistema que recibe información, decide acciones y las ejecuta. No todos los sistemas de IA son agentes autónomos.
- Modelo multimodal: un modelo que puede procesar distintos tipos de datos (texto, imágenes, audio); por ejemplo, identificar objetos en una foto y describirlos en texto.
Contexto y postura frente a otros laboratorios
OpenAI menciona explícitamente a Anthropic, otra empresa de IA que había expresado reservas en conversaciones previas con el DoW.
Según el comunicado, OpenAI pidió que las mismas condiciones estén disponibles para otras compañías y espera que el gobierno “resuelva” las diferencias con Anthropic. La empresa también subraya que no aceptó retirar salvaguardas técnicas para mejorar rendimiento en tareas militares.
Qué no dice el comunicado
El texto afirma que, en su opinión, el acuerdo no habilita ni la creación de armas autónomas ni vigilancia doméstica masiva, y que podrían terminar el contrato si el gobierno viola los términos.
No se incluyen detalles sobre el alcance operativo del uso en inteligencia ni cifras económicas, y OpenAI reconoce que el despliegue es para “fines lícitos” en entornos clasificados, sin detallar aplicaciones concretas.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

