Cali, abril 4 de 2026. Actualizado: miércoles, abril 1, 2026 21:26

La compañía anuncia, el 13 de febrero de 2026, dos medidas en ChatGPT, ChatGPT Atlas y Codex para reducir el riesgo de exfiltración de datos por ataques de “prompt injection”

OpenAI lanza Lockdown Mode y etiquetas de “Riesgo elevado” para proteger a usuarios de ataques por instrucciones maliciosas

OpenAI lanza Lockdown Mode y etiquetas de “Riesgo elevado” para proteger a usuarios de ataques por instrucciones maliciosas
viernes 20 de febrero, 2026

OpenAI presentó el 13 de febrero de 2026 dos nuevas protecciones destinadas a reducir el riesgo de que asistentes conversacionales obtengan o filtren información sensible tras ser manipulados por terceros.

Según la nota oficial de la empresa, las novedades son Lockdown Mode (modo de bloqueo) y un sistema de “Elevated Risk” (riesgo elevado) para ciertas capacidades con acceso a la red.

Qué son los riesgos que buscan mitigar

Los anuncios parten de una preocupación concreta: las llamadas “prompt injections”. En este tipo de ataques, un tercero introduce instrucciones maliciosas para engañar a un modelo conversacional y conseguir que revele datos o ejecute acciones no deseadas.

OpenAI explica que, a medida que los sistemas de IA se conectan más a la web y aplicaciones, estas amenazas aumentan en relevancia.

Para atajar esto, la empresa combina varias líneas de defensa ya existentes —sandboxing, protecciones contra exfiltración por URLs, monitorización y controles empresariales como registro de auditoría y control de accesos— con las dos nuevas herramientas detalladas en su comunicado.

Lockdown Mode: qué hace y a quién va dirigido

Lockdown Mode es una configuración avanzada y opcional pensada para un grupo reducido de usuarios de alto riesgo —por ejemplo, ejecutivos o equipos de seguridad— que requieren protecciones adicionales. No es una función que OpenAI recomiende a todos los usuarios.

En este modo, ChatGPT limita de forma determinista cómo puede interactuar con sistemas externos.

Un ejemplo concreto: la navegación web queda restringida a contenido en caché, de modo que no se realizan solicitudes en vivo que puedan sacar datos fuera de la red controlada por OpenAI.

Además, cuando la compañía no puede garantizar de manera determinista la seguridad de una función, esa función se desactiva por completo en Lockdown Mode.

Disponibilidad y controles administrativos

OpenAI señala que Lockdown Mode amplía la seguridad de los planes empresariales y educativos: está disponible para ChatGPT Enterprise, ChatGPT Edu, ChatGPT for Healthcare y ChatGPT for Teachers.

Los administradores de espacios de trabajo pueden activarlo desde las Workspace Settings creando un nuevo rol.

Además, mantienen la capacidad de elegir qué aplicaciones y qué acciones dentro de esas apps están permitidas para los usuarios en Lockdown Mode.

En paralelo y separado de este modo, OpenAI ofrece la Compliance API Logs Platform para dar visibilidad detallada sobre el uso de apps, los datos compartidos y las fuentes conectadas.

La compañía también indica que planea llevar Lockdown Mode a consumidores en los meses siguientes.

Etiquetas de “Riesgo elevado”: informar para decidir

La segunda medida es la estandarización de una etiqueta “Elevated Risk” para un conjunto corto de capacidades que implican acceso a la red o a sistemas externos y que, por su naturaleza, pueden introducir riesgos adicionales.

Estas etiquetas aparecerán en ChatGPT, ChatGPT Atlas y Codex.

El objetivo declarado es dar orientación clara dentro del producto: explicar qué cambia al activar una función, qué riesgos puede introducir y cuándo es adecuado conceder ese acceso.

OpenAI usa el ejemplo de Codex (su asistente de programación): los desarrolladores pueden dar acceso de red a Codex para que consulte documentación en la web, pero la pantalla de configuración mostrará la etiqueta de riesgo, controles como listas de dominios permitidos y advertencias sobre métodos HTTP autorizados.

Definiciones breves para entender los términos

  • LLM (modelo de lenguaje grande): un sistema de IA entrenado con grandes cantidades de texto para generar lenguaje, responder preguntas o seguir instrucciones.
  • Agente: en este contexto, un asistente de IA que puede realizar tareas que incluyen interactuar con apps o la web.
  • Modelo multimodal: un modelo que procesa más de un tipo de datos (por ejemplo texto e imágenes).

Por ejemplo, Codex es un asistente orientado a tareas de programación que puede actuar como agente cuando se le permite acceder a la web; ChatGPT Atlas y ChatGPT son otras variantes del ecosistema en las que se aplicarán las etiquetas.

Qué falta y cuál es el siguiente paso

OpenAI afirma que seguirá invirtiendo en salvaguardas de seguridad y que retirará la etiqueta “Elevated Risk” cuando las mejoras técnicas permitan mitigar de forma suficiente esos riesgos para uso general.

También indica que actualizará con el tiempo la lista de funciones que reciben la etiqueta para reflejar la evolución de las amenazas y las defensas.

Nota de Transparencia

Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

OpenAI lanza Lockdown Mode y etiquetas de “Riesgo elevado” para proteger a usuarios de ataques por instrucciones maliciosas

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

OpenAI lanza Lockdown Mode y etiquetas de “Riesgo elevado” para proteger a usuarios de ataques por instrucciones maliciosas

Curaduría editorial

La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.

Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.

Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.

El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.

Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.


OpenAI lanza Lockdown Mode y etiquetas de “Riesgo elevado” para proteger a usuarios de ataques por instrucciones maliciosas

Comments

ads_top
Powered by Sindyk Content
Arriba