San Francisco, 10 de junio de 2025 — OpenAI ha lanzado oficialmente o3-pro, su modelo de lenguaje más potente y fiable hasta la fecha, ya disponible para los usuarios de ChatGPT Pro y Team. En sustitución del anterior o1-pro, el modelo o3-pro también se está implementando de inmediato para los desarrolladores de API, y las cuentas Enterprise y Education tendrán acceso la próxima semana. Esta versión se centra en el razonamiento avanzado, la fiabilidad constante y una mejor integración de herramientas, dirigida a casos de uso profesionales y empresariales.
Según OpenAI, o3-pro supera tanto a o1-pro como al modelo o3 anterior en evaluaciones comparativas internas y externas, especialmente en ciencias, matemáticas, programación y toma de decisiones de alto impacto. El modelo obtiene altas puntuaciones en la prueba de fiabilidad 4/4 de OpenAI, diseñada para medir si un modelo puede generar respuestas correctas de forma consistente en consultas repetidas. En comparación con competidores líderes como Gemini 2.5 Pro de Google y Claude 3 Opus de Anthropic, o3-pro ha demostrado un rendimiento superior en rigurosas evaluaciones comparativas como AIME (matemáticas) y GPQA (ciencias de posgrado).
Con este lanzamiento, OpenAI también anunció un cambio importante en su estrategia de precios. Si bien o3-pro se posiciona como un modelo premium (con un precio de $20 por millón de tokens de entrada y $80 por millón de tokens de salida), la compañía ha reducido simultáneamente el costo del modelo básico de o3 en un 80%, haciéndolo más accesible para desarrolladores y startups, con precios de $2 y $8 por millón de tokens de entrada y salida, respectivamente.
El modelo o3-pro viene equipado con potentes funciones, como navegación web avanzada, ejecución de código Python, razonamiento basado en visión, análisis de archivos y compatibilidad con la personalización de memoria en ChatGPT. Sin embargo, esta versión presenta algunas limitaciones temporales. En el lanzamiento, no admite la generación de imágenes, el espacio de trabajo Canvas ni sesiones de chat temporales, y sus tiempos de respuesta son más lentos que los de modelos anteriores debido a la intensidad de procesamiento de sus capacidades de razonamiento más profundas. Los primeros comentarios de los desarrolladores indican que las respuestas complejas pueden tardar hasta dos o tres minutos.
El CEO de OpenAI, Sam Altman, también confirmó que el lanzamiento previamente esperado para mediados de junio de un modelo de ponderaciones abiertas se ha retrasado hasta finales de este verano, aunque la compañía reafirmó su compromiso con el desarrollo de IA abierta.
A pesar de las desventajas de la latencia, las primeras revisiones sugieren que o3-pro establece un nuevo estándar para el rendimiento consistente y confiable de la IA. Se espera que el modelo sea especialmente valioso en ámbitos que requieren precisión y repetibilidad, como el análisis legal, la investigación científica, el modelado financiero y la automatización empresarial. La combinación de precisión, flexibilidad y nuevos precios indica la intención de OpenAI de liderar tanto el mercado de consumo como el de desarrollo hacia una era de IA generativa más confiable y robusta.
Introducción a o3-pro
CometAPI proporciona una interfaz REST unificada que integra cientos de modelos de IA en un único punto de conexión, con gestión de claves API integrada, cuotas de uso y paneles de facturación. En lugar de tener que gestionar múltiples URL y credenciales de proveedores.
Los desarrolladores pueden acceder API de o3-Pro(modelo: "o3-Pro"o"o3-pro-2025-06-10") a través de CometAPILos últimos modelos listados corresponden a la fecha de publicación del artículo. Para comenzar, explore las capacidades del modelo en el Playground y consultar el Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API". CometAPI Ofrecemos un precio muy inferior al oficial para ayudarte a integrarte.
