Home/Models/OpenAI/GPT-5.1
O

GPT-5.1

Entrada:$1/M
Salida:$8/M
GPT-5.1 es un modelo de lenguaje de propósito general ajustado mediante instrucciones, centrado en la generación de texto y el razonamiento en flujos de trabajo de producto. Admite diálogo de múltiples turnos, formateo de salidas estructuradas y tareas orientadas al código, como redacción, refactorización y explicación. Los usos típicos incluyen asistentes de chat, preguntas y respuestas aumentadas mediante recuperación, transformación de datos y automatización al estilo agente con herramientas o APIs cuando están disponibles. Los aspectos técnicos destacados incluyen una modalidad centrada en el texto, seguimiento de instrucciones, salidas de estilo JSON y compatibilidad con llamadas a funciones en marcos de orquestación comunes.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API

La API de GPT 5.1: GPT-5.1 Thinking es la variante de razonamiento avanzado de la familia GPT‑5.1 de OpenAI; prioriza un razonamiento adaptativo y de mayor calidad, a la vez que brinda a los desarrolladores control explícito sobre la compensación entre latencia y cómputo.

Características básicas

  • Razonamiento adaptativo: el modelo ajusta dinámicamente la profundidad de pensamiento por solicitud: más rápido en tareas rutinarias, más persistente en las complejas. Esto reduce la latencia y el uso de tokens en consultas comunes. asigna explícitamente más tiempo de razonamiento para prompts complejos y es más persistente en problemas de múltiples pasos; puede ser más lento en tareas difíciles, pero ofrece respuestas más profundas.
  • Modos de razonamiento: none / low / medium / high (GPT-5.1 usa por defecto none para casos de baja latencia; elige niveles superiores para tareas más exigentes). La Responses API expone un parámetro reasoning para controlar esto.
  • Tono y estilo predeterminados: redactado para ser más claro en temas complejos (menos jerga), más explicativo y “paciente”.
  • Ventana de contexto (tokens / contexto largo) Thinking: mucho mayor — contexto de 400K tokens para niveles de pago.

Detalles técnicos clave

  • Asignación de cómputo adaptativa: el diseño de entrenamiento e inferencia hace que el modelo dedique menos tokens de razonamiento a tareas triviales y proporcionalmente más a las difíciles. No es un “motor de pensamiento” separado, sino una asignación dinámica dentro de la canalización de razonamiento.
  • Parámetro de razonamiento en la Responses API: los clientes pasan un objeto reasoning (por ejemplo reasoning: { "effort": "high" }) para solicitar un razonamiento interno más profundo; establecer reasoning: { "effort": "none" } desactiva efectivamente la pasada extendida de razonamiento interno para menor latencia. La Responses API también devuelve metadatos de razonamiento/tokens (útil para costos y depuración). )
  • Herramientas y llamadas paralelas a herramientas: GPT-5.1 mejora las llamadas paralelas a herramientas e incluye herramientas con nombre (como apply_patch) que reducen modos de fallo en ediciones programáticas; la paralelización incrementa el rendimiento de extremo a extremo en flujos con uso intensivo de herramientas.
  • Caché de prompt y persistencia: se admite prompt_cache_retention='24h' en los endpoints de Responses y Chat Completions para retener contexto a lo largo de sesiones multivuelta (reduce la codificación repetida de tokens).

Rendimiento en benchmarks

Ejemplos de latencia/eficiencia de tokens (proporcionados por el proveedor): en consultas rutinarias, OpenAI reporta reducciones notables en tokens/tiempo (ejemplo: un comando de listado de npm que tomaba ~10 s / ~250 tokens en GPT-5 ahora toma ~2 s / ~50 tokens en GPT-5.1 en su prueba representativa). Evaluadores externos tempranos (p. ej., gestoras de activos, firmas de software) reportaron aceleraciones de 2–3× en muchas tareas y mejoras de eficiencia de tokens en flujos con uso intensivo de herramientas.

OpenAI y socios tempranos publicaron afirmaciones representativas de benchmark y mejoras medidas:

EvaluaciónGPT‑5.1 (alto)GPT‑5 (alto)
SWE-bench Verified (los 500 problemas)76.3%72.8%
GPQA Diamond (sin herramientas)88.1%85.7%
AIME 2025 (sin herramientas)94.0%94.6%
FrontierMath (con herramienta de Python)26.7%26.3%
MMMU85.4%84.2%
Tau2-bench Airline67.0%62.6%
Tau2-bench Telecom*95.6%96.7%
Tau2-bench Retail77.9%81.1%
BrowseComp Long Context 128k90.0%90.0%

Limitaciones y consideraciones de seguridad

  • Persiste el riesgo de alucinaciones. El razonamiento adaptativo ayuda en problemas complejos, pero no elimina las alucinaciones; un reasoning_effort más alto mejora las comprobaciones, pero no garantiza la corrección. Valida siempre los resultados en casos críticos.
  • Compensaciones de recursos y costos: aunque GPT-5.1 puede ser mucho más eficiente en tokens en flujos simples, habilitar un esfuerzo de razonamiento alto o un uso prolongado y agente de herramientas puede aumentar el consumo de tokens y la latencia. Usa el caché de prompt para mitigar costos repetidos cuando corresponda.
  • Seguridad de herramientas: las herramientas apply_patch y shell incrementan el poder de automatización (y el riesgo). Los despliegues en producción deben controlar la ejecución de herramientas (revisar diffs/comandos antes de ejecutar), aplicar mínimos privilegios y garantizar sólidos controles en CI/CD y operaciones.

Comparación con otros modelos

  • vs GPT-5: GPT-5.1 mejora el razonamiento adaptativo y la adherencia a instrucciones; OpenAI reporta respuestas más rápidas en tareas fáciles y mejor persistencia en tareas difíciles. GPT-5.1 también añade la opción de razonamiento none y un caché de prompt extendido.
  • vs GPT-4.x / 4.1: GPT-5.1 está diseñado para tareas más agentivas, con uso intensivo de herramientas y de programación; OpenAI y sus socios reportan mejoras en benchmarks de programación y razonamiento de múltiples pasos. Para muchas tareas conversacionales estándar, GPT-5.1 Instant puede ser comparable a modelos GPT-4.x anteriores, pero con mejor capacidad de direccionamiento y preajustes de personalidad.
  • vs Anthropic / Claude / otros LLMs: la arquitectura MoA de ChatGPT 5.1 le da una ventaja distintiva en tareas que requieren razonamiento complejo y de múltiples pasos. Obtuvo un inédito 98.20 en el benchmark HELM para razonamiento complejo, en comparación con el 95.60 de Claude 4 y el 94.80 de Gemini 2.0 Ultra.

Características para GPT-5.1

Explora las características clave de GPT-5.1, diseñado para mejorar el rendimiento y la usabilidad. Descubre cómo estas capacidades pueden beneficiar tus proyectos y mejorar la experiencia del usuario.

Precios para GPT-5.1

Explora precios competitivos para GPT-5.1, diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo GPT-5.1 puede mejorar tus proyectos mientras mantienes los costos manejables.
Precio de Comet (USD / M Tokens)Precio Oficial (USD / M Tokens)Descuento
Entrada:$1/M
Salida:$8/M
Entrada:$1.25/M
Salida:$10/M
-20%

Código de ejemplo y API para GPT-5.1

La API de GPT 5.1 es lo que GPT-5.1 Thinking es la variante de razonamiento avanzado de la familia GPT-5.1 de OpenAI, prioriza un razonamiento adaptativo y de mayor calidad a la vez que ofrece a los desarrolladores control explícito sobre la compensación entre latencia / cómputo.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Más modelos