OpenAI lanzó el 23 de abril de 2026 GPT-5.5, su nuevo modelo fundacional diseñado para ingeniería de software y tareas autónomas. La actualización marca el primer reentrenamiento completo desde GPT-4.5 y llega seis semanas después de la versión 5.4. Para impulsar su adopción, la compañía organizará un evento exclusivo por invitación el 5 de mayo en sus oficinas de San Francisco.

El modelo, conocido internamente como "Spud", analiza código, capturas de pantalla, diagramas y maquetas de interfaz de usuario para generar, depurar y refactorizar software. A través de su API, soporta una ventana de contexto de 1 millón de tokens, permitiendo a los desarrolladores cargar grandes repositorios en una sola sesión. Según Greg Brockman, presidente de OpenAI, "lo que es realmente especial sobre este modelo es cuánto puede hacer con menos orientación. Puede mirar un problema poco claro y descubrir qué necesita pasar a continuación".

AfiliaGo - DafaBet Latam

Los resultados técnicos validan su desempeño. GPT-5.5 obtuvo un 82.7% en Terminal-Bench 2.0, una prueba para flujos de trabajo en líneas de comandos, y alcanzó un 78.7% en OSWorld-Verified, que evalúa el uso de entornos de computadora reales. Ingenieros senior reportaron que es notablemente superior a GPT-5.4 y a Claude Opus 4.7 de Anthropic al detectar fallas por adelantado sin instrucciones explícitas.

El modelo está disponible para usuarios Plus, Pro, Business y Enterprise dentro de ChatGPT y el asistente Codex. Su integración comercial avanza a través de herramientas como Cursor y Kilo en VS Code y JetBrains, además de su disponibilidad en Microsoft Foundry en Azure.

El precio por token cuesta aproximadamente el doble que GPT-5.4, aunque OpenAI argumenta que el modelo usa menos tokens y requiere menos intentos para completar tareas. La compañía ofrece cinco niveles de esfuerzo de razonamiento, desde un predeterminado "medium" hasta un límite "xhigh" para sesiones complejas. El evento "GPT-5.5 on 5/5" reunirá a invitados seleccionados mediante solicitudes públicas evaluadas por Codex.