Home/Models/OpenAI/GPT-5.1
O

GPT-5.1

Indtast:$1/M
Output:$8/M
GPT-5.1 er en sprogmodel til generelle formål, finjusteret til instruktioner, med fokus på tekstgenerering og ræsonnement på tværs af produktarbejdsgange. Den understøtter dialog over flere omgange, struktureret formatering af output og kodeorienterede opgaver såsom udarbejdelse, refaktorering og forklaring. Typiske anvendelser omfatter chatassistenter, retrieval-forstærket spørgsmål-svar (QA), datatransformation og agent-lignende automatisering med værktøjer eller API'er, når det er understøttet. Tekniske højdepunkter omfatter en tekstcentreret modalitet, efterlevelse af instruktioner, JSON-lignende output samt kompatibilitet med funktionskald i udbredte orkestreringsrammer.
Ny
Kommersiel brug
Playground
Oversigt
Funktioner
Priser
API

GPT 5.1 API er hvad GPT-5.1 Thinking er den avancerede ræsonneringsvariant af OpenAIs GPT-5.1-familie, den prioriterer adaptiv, mere høj-kvalitets ræsonnering, samtidig med at udviklere får eksplicit kontrol over kompromiset mellem latenstid / compute.

Grundlæggende funktioner

  • Adaptive reasoning: modellen justerer dynamisk tænkningsdybden pr. forespørgsel — hurtigere på rutineopgaver, mere vedholdende på komplekse. Dette reducerer latenstid og tokenforbrug for almindelige forespørgsler. Allokerer eksplicit mere ræsonneringstid til komplekse prompts og er mere vedholdende på flertrinsproblemer; kan være langsommere ved svære opgaver, men giver dybere svar.
  • Reasoning modes: none / low / medium / high (GPT-5.1 bruger som standard none til lav-latenstidsscenarier; vælg højere niveauer til mere krævende opgaver). Responses API udstiller en reasoning-parameter til at styre dette.
  • Standardtone og -stil: skrevet til at være klarere om komplekse emner (mindre fagsprog), mere forklarende og "tålmodig."
  • Context window (tokens / long context) Thinking: meget større — 400K token-kontekst for betalte niveauer.

Vigtige tekniske detaljer

  • Adaptive compute allocation — trænings- og inferensdesignet gør, at modellen bruger færre ræsonneringstokens på trivielle opgaver og proportionelt flere på svære. Dette er ikke en separat "think engine", men en dynamisk allokering i ræsonnerings-pipelinen.
  • Reasoning parameter i Responses API — klienter sender et reasoning-objekt (for eksempel reasoning: { "effort": "high" }) for at anmode om dybere intern ræsonnering; indstilling af reasoning: { "effort": "none" } deaktiverer effektivt den udvidede interne ræsonneringspassage for lavere latenstid. Responses API returnerer også metadata om ræsonnering/tokens (nyttigt for omkostninger og fejlsøgning). )
  • Tools & parallel tool calls — GPT-5.1 forbedrer parallel værktøjskald og inkluderer navngivne værktøjer (som apply_patch), der reducerer fejlsituationer ved programmatiske ændringer; parallelisering øger end-to-end-gennemløbet for arbejdsgange med mange værktøjer.
  • Prompt cache og persistens — prompt_cache_retention='24h' understøttes på Responses- og Chat Completions-endpoints for at fastholde kontekst på tværs af samtaler med flere ture (reducerer gentagen token-indkodning).

Benchmark-ydelse

Eksempler på latenstid / tokeneffektivitet (leverandør-oplyst): ved rutineforespørgsler rapporterer OpenAI dramatiske reduktioner i tid/tokens (eksempel: en npm listing-kommando, der tog ~10s / ~250 tokens på GPT-5, tager nu ~2s / ~50 tokens på GPT-5.1 i deres repræsentative test). Tidlige tredjepartstestere (f.eks. kapitalforvaltere, softwarefirmaer) rapporterede 2–3× hastighedsforbedringer på mange opgaver og token-effektivitetsgevinster i forløb med mange værktøjer.

OpenAI og tidlige partnere offentliggjorde repræsentative benchmark-påstande og målte forbedringer:

EvalueringGPT‑5.1 (høj)GPT‑5 (høj)
SWE-bench Verified (alle 500 problemer)76.3%72.8%
GPQA Diamond (uden værktøjer)88.1%85.7%
AIME 2025 (uden værktøjer)94.0%94.6%
FrontierMath (med Python-værktøj)26.7%26.3%
MMMU85.4%84.2%
Tau2-bench Airline67.0%62.6%
Tau2-bench Telecom*95.6%96.7%
Tau2-bench Retail77.9%81.1%
BrowseComp Long Context 128k90.0%90.0%

Begrænsninger og sikkerhedsovervejelser

  • Risikoen for hallucinationer består. Adaptiv ræsonnering hjælper ved komplekse problemer, men eliminerer ikke hallucinationer; højere reasoning_effort forbedrer kontroller, men garanterer ikke korrekthed. Validér altid output i højrisikosammenhænge.
  • Ressource- og omkostningsafvejninger: selvom GPT-5.1 kan være langt mere tokeneffektiv på simple forløb, kan aktivering af høj ræsonneringsindsats eller langvarig agent-baseret værktøjsbrug øge tokenforbrug og latenstid. Brug prompt-caching til at afbøde gentagne omkostninger, hvor det er relevant.
  • Værktøjssikkerhed: apply_patch- og shell-værktøjer øger graden af automatisering (og risiko). Produktionsimplementeringer bør gate værktøjskørsel (gennemse diffs/kommandoer før udførelse), bruge mindste privilegier og sikre robuste CI/CD- og operationelle værn.

Sammenligning med andre modeller

  • vs GPT-5: GPT-5.1 forbedrer adaptiv ræsonnering og efterlevelse af instruktioner; OpenAI rapporterer hurtigere svartider på lette opgaver og bedre vedholdenhed på svære opgaver. GPT-5.1 tilføjer også none-ræsonneringsindstillingen og udvidet prompt-caching.
  • vs GPT-4.x / 4.1: GPT-5.1 er designet til mere agentiske, værktøjstunge og kodningsopgaver; OpenAI og partnere rapporterer gevinster på kodnings-benchmarks og flertrinsræsonnering. For mange standard samtaleopgaver kan GPT-5.1 Instant være sammenlignelig med tidligere GPT-4.x-chatmodeller, men med forbedret styrbarhed og personligheds-forudindstillinger.
  • vs Anthropic / Claude / andre LLM'er: ChatGPT 5.1′;s MoA architecture giver den en markant fordel i opgaver, der kræver kompleks, flertrins ræsonnering. Den scorede en hidtil uset 98.20 på HELM-benchmarket for kompleks ræsonnering, sammenlignet med Claude 4’s 95.60 og Gemini 2.0 Ultra’s 94.80.

Funktioner til GPT-5.1

Udforsk de vigtigste funktioner i GPT-5.1, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for GPT-5.1

Udforsk konkurrencedygtige priser for GPT-5.1, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan GPT-5.1 kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$1/M
Output:$8/M
Indtast:$1.25/M
Output:$10/M
-20%

Eksempelkode og API til GPT-5.1

GPT 5.1 API er det, som GPT-5.1 Thinking er: den avancerede ræsonneringsvariant af OpenAI’s GPT-5.1-familie, den prioriterer adaptivt ræsonnement af højere kvalitet, samtidig med at den giver udviklere eksplicit kontrol over afvejningen mellem latens og beregningsressourcer.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Flere modeller