Cali, marzo 29 de 2026. Actualizado: viernes, marzo 27, 2026 23:45

OpenAI presenta un modelo ultrarrápido, en asociación con Cerebras, pensado para editar y probar código con latencias casi instantáneas; llega primero como vista previa de investigación para usuarios de ChatGPT Pro

GPT‑5.3‑Codex‑Spark: la apuesta de OpenAI por la codificación en tiempo real

GPT‑5.3‑Codex‑Spark: la apuesta de OpenAI por la codificación en tiempo real
viernes 20 de febrero, 2026

Hoy OpenAI anunció GPT‑5.3‑Codex‑Spark, una variante ligera de su familia Codex diseñada para ofrecer programación en tiempo real.

La compañía presentó el modelo el 12 de febrero de 2026 como una versión preliminar de investigación dirigida a usuarios de ChatGPT Pro y a un grupo reducido de socios en la API.

Según la nota oficial, Codex‑Spark procesa más de 1.000 tokens por segundo y está optimizado para respuestas casi instantáneas cuando se ejecuta en hardware de latencia ultrabaja.

Qué es Codex‑Spark y para qué sirve

Codex‑Spark es un modelo pensado para tareas interactivas de programación: ediciones puntuales, refactorizaciones de lógica o ajustes de interfaces que requieren ver resultados de inmediato.

A diferencia de los modelos orientados a trabajos de larga duración —capaces de ejecutar procesos durante horas o días—, este nuevo miembro de la familia Codex prioriza la velocidad y la capacidad de iterar con el usuario en tiempo real.

Durante la vista previa, Codex‑Spark trabaja únicamente con texto y ofrece una ventana de contexto amplia de 128.000 tokens, lo que permite mantener más historial de la conversación o del proyecto abierto.

Velocidad y mejoras en la experiencia

La presentación destaca no solo la rapidez del modelo, sino también optimizaciones en toda la ruta de comunicación entre cliente y servidor.

OpenAI señala que, con la introducción de una conexión WebSocket persistente y cambios en la infraestructura de inferencia, han reducido la sobrecarga por viaje cliente/servidor en un 80 %, la sobrecarga por token en un 30 % y el tiempo hasta el primer token en un 50 %.

Esas métricas buscan que el primer resultado aparezca mucho más rápido y que la interacción se sienta fluida al editar código paso a paso.

Benchmarks y comportamiento práctico

En pruebas como SWE‑Bench Pro y Terminal‑Bench 2.0 —puntos de referencia que miden la capacidad agéntica en ingeniería de software—, GPT‑5.3‑Codex‑Spark completó las mismas tareas en una fracción del tiempo que GPT‑5.3‑Codex, según la compañía.

OpenAI también explica cómo calculan la duración de una tarea: sumando el tiempo de generación de salida, el preprocesamiento de la entrada, el tiempo de ejecución de herramientas y la sobrecarga de la red.

Infraestructura: Cerebras y la combinación con GPUs

Codex‑Spark se ejecuta en el Wafer Scale Engine 3 de Cerebras, un acelerador diseñado para inferencia de alta velocidad. OpenAI presenta esta colaboración como la ruta de baja latencia dentro de su infraestructura de producción, complementaria al uso de GPU que sigue siendo central para entrenamiento e inferencia a gran escala.

La empresa afirma que GPUs y el hardware de Cerebras pueden combinarse para ofrecer el mejor rendimiento según la tarea.

Disponibilidad, límites y uso práctico

La versión preliminar de investigación ya está disponible para usuarios de ChatGPT Pro en la aplicación Codex, la interfaz de línea de comandos (CLI) y la extensión de VS Code.

Debido al uso de hardware especializado, Codex‑Spark tendrá límites de tasa independientes; su empleo no consumirá los límites estándar.

OpenAI advierte que, si la demanda es alta, los usuarios podrían experimentar accesos limitados o filas temporales.

Además, la función se ofrece en la API solo a un pequeño grupo de socios de diseño inicialmente, con planes de ampliar el acceso en las semanas siguientes.

Seguridad y alcance de capacidades

OpenAI indica que Codex‑Spark incluye el mismo entrenamiento de seguridad que sus modelos principales, incluso el específico para ciberseguridad.

En sus evaluaciones, la firma concluyó que no existe una posibilidad plausible de que Codex‑Spark alcance su umbral del Marco de Preparación para alta capacidad en ciberseguridad o en biología.

Por ahora, el modelo maneja solo texto; la compañía prevé introducir, en función del aprendizaje con la comunidad, capacidades mayores como modelos de mayor tamaño, ventanas de contexto aún más amplias y entrada multimodal.

Impacto para usuarios y desarrolladores

Para programadores y equipos de producto, la principal promesa es acortar el ciclo entre idea y resultado: editar una función, ver el efecto y volver a iterar en segundos.

Para usuarios no técnicos, la mejora se traduce en herramientas de productividad más reactivas que facilitan la colaboración con asistentes de código.

OpenAI plantea que, a medida que los modelos aumentan en capacidad, la latencia se convierte en un cuello de botella y abrir ese ciclo puede ampliar lo que es posible para quienes desarrollan software.

Qué sigue

OpenAI define a Codex‑Spark como el primer paso hacia un Codex con dos modos complementarios: uno para razonamiento y ejecución a largo plazo, y otro para colaboración en tiempo real.

La integración eventual de ambos modos permitiría, por ejemplo, mantener tareas largas en segundo plano mientras se interactúa de forma inmediata en la superficie del proyecto.

Nota de Transparencia

Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

GPT‑5.3‑Codex‑Spark: la apuesta de OpenAI por la codificación en tiempo real

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

GPT‑5.3‑Codex‑Spark: la apuesta de OpenAI por la codificación en tiempo real

Curaduría editorial

La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.

Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.

Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.

El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.

Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.


GPT‑5.3‑Codex‑Spark: la apuesta de OpenAI por la codificación en tiempo real

Comments

ads_top
Powered by Sindyk Content
Arriba