Home/Models/OpenAI/GPT-5.1
O

GPT-5.1

입력:$1/M
출력:$8/M
GPT-5.1은 제품 워크플로우 전반에서의 텍스트 생성과 추론에 초점을 맞춘, 지시로 미세조정된 범용 언어 모델입니다. 멀티턴 대화, 구조화된 출력 형식, 초안 작성·리팩터링·설명과 같은 코드 지향 작업을 지원합니다. 일반적인 활용 사례로는 채팅 어시스턴트, 검색 증강형 QA, 데이터 변환, 그리고 지원되는 경우 도구 또는 API를 활용한 에이전트형 자동화가 포함됩니다. 기술적 특징에는 텍스트 중심 모달리티, 지시 따르기, JSON 스타일 출력, 일반적인 오케스트레이션 프레임워크에서의 함수 호출과의 호환성이 포함됩니다.
새로운
상업적 사용
Playground
개요
기능
가격
API

GPT 5.1 API is what GPT-5.1 Thinking은 OpenAI의 GPT‑5.1 제품군의 고급 추론 변형으로, 지연 시간/연산 절충에 대해 개발자가 명시적으로 제어할 수 있도록 하면서 적응형이고 더 높은 품질의 추론을 우선시합니다.

기본 기능

  • 적응형 추론: 모델이 요청별로 생각의 깊이를 동적으로 조절합니다 — 일상적인 작업에서는 더 빠르게, 복잡한 작업에서는 더 끈기 있게 작동합니다. 이는 일반적인 쿼리의 지연 시간과 토큰 사용을 줄입니다. 복잡한 프롬프트에 대해서는 명시적으로 더 많은 추론 시간을 할당하며, 다단계 문제에서 더 끈기 있게 작동합니다; 어려운 작업에서는 더 느릴 수 있으나 더 깊이 있는 답변을 제공합니다.
  • 추론 모드: none / low / medium / high (GPT‑5.1은 저지연 케이스에서 기본값이 none입니다; 더 까다로운 작업에는 더 높은 수준을 선택하세요). Responses API는 이를 제어하기 위한 reasoning 매개변수를 노출합니다.
  • 기본 톤 및 스타일: 복잡한 주제에서 더 명확하게(전문 용어를 줄여) 설명하고, 보다 해설적이며 “차분한” 어조로 작성됩니다.
  • 컨텍스트 윈도우(토큰/롱 컨텍스트) Thinking: 훨씬 더 큽니다 — 유료 티어에서 400K 토큰 컨텍스트.

핵심 기술 세부사항

  • 적응형 연산 할당 — 학습 및 추론 설계로 인해 모델은 사소한 작업에는 더 적은 추론 토큰을, 어려운 작업에는 비례적으로 더 많은 추론 토큰을 사용합니다. 이는 별도의 “생각 엔진”이 아니라 추론 파이프라인 내의 동적 할당입니다.
  • Responses API의 추론 매개변수 — 클라이언트는 더 깊은 내부 추론을 요청하기 위해 reasoning 객체(예: reasoning: { "effort": "high" })를 전달합니다; reasoning: { "effort": "none" }을 설정하면 더 낮은 지연 시간을 위해 확장 내부 추론 패스를 사실상 비활성화합니다. Responses API는 추론/토큰 메타데이터도 반환합니다(비용 및 디버깅에 유용). )
  • 도구 및 병렬 도구 호출 — GPT‑5.1은 병렬 도구 호출을 개선하고, 프로그래밍적 편집 실패 모드를 줄이는 명명된 도구(예: apply_patch)를 포함합니다; 병렬화는 도구 중심 워크플로의 총 처리량을 높입니다.
  • 프롬프트 캐시 및 지속성 — prompt_cache_retention='24h'가 Responses 및 Chat Completions 엔드포인트에서 지원되어, 다중 턴 세션에서 컨텍스트를 유지합니다(반복적인 토큰 인코딩을 줄여줌).

벤치마크 성능

지연 시간/토큰 효율 예시(벤더 제공): 일상적인 쿼리에서 OpenAI는 토큰/시간이 크게 줄었다고 보고합니다(예: 대표 테스트에서 npm listing 명령이 GPT‑5에서는 약 10초/약 250 토큰이 걸렸으나 GPT‑5.1에서는 약 2초/약 50 토큰). 서드파티 초기 테스터(예: 자산 운용사, 코딩 업체)는 많은 작업에서 2–3배 속도 향상과 도구 중심 플로우에서의 토큰 효율 향상을 보고했습니다.

OpenAI와 초기 파트너는 대표적인 벤치마크 주장과 측정된 개선을 공개했습니다:

평가GPT‑5.1 (high)GPT‑5 (high)
SWE-bench Verified (전체 500문제)76.3%72.8%
GPQA Diamond (도구 없음)88.1%85.7%
AIME 2025 (도구 없음)94.0%94.6%
FrontierMath (Python 도구 사용)26.7%26.3%
MMMU85.4%84.2%
Tau2-bench Airline67.0%62.6%
Tau2-bench Telecom*95.6%96.7%
Tau2-bench Retail77.9%81.1%
BrowseComp Long Context 128k90.0%90.0%

한계 및 안전 고려사항

  • 환각 위험은 여전히 존재합니다. 적응형 추론은 복잡한 문제에서 도움을 주지만 환각을 제거하지는 못합니다; 더 높은 reasoning_effort는 검증을 개선하지만 정확성을 보장하지는 않습니다. 고위험 결과는 항상 검증하세요.
  • 리소스 및 비용 절충: GPT‑5.1은 단순한 플로우에서 훨씬 더 토큰 효율적일 수 있지만, 높은 추론 강도나 장시간의 에이전트형 도구 사용을 활성화하면 토큰 소비와 지연이 증가할 수 있습니다. 필요한 경우 프롬프트 캐싱으로 반복 비용을 완화하세요.
  • 도구 안전성: apply_patch와 shell 도구는 자동화 능력을 높이는 동시에 위험도 높입니다. 프로덕션 배포에서는 도구 실행을 게이트(실행 전 diff/명령 검토), 최소 권한 원칙 적용, 견고한 CI/CD 및 운영 가드레일을 확보해야 합니다.

다른 모델과의 비교

  • vs GPT‑5: GPT‑5.1은 적응형 추론과 지시 준수에서 개선되었습니다; 쉬운 작업에서는 더 빠른 응답, 어려운 작업에서는 더 나은 끈기를 보입니다. 또한 none 추론 옵션과 확장된 프롬프트 캐싱을 추가했습니다.
  • vs GPT‑4.x / 4.1: GPT‑5.1은 더 에이전트형, 도구 중심, 코딩 작업을 위해 설계되었습니다; OpenAI와 파트너는 코딩 벤치마크와 다단계 추론에서의 향상을 보고했습니다. 많은 표준 대화형 작업에서는 GPT‑5.1 Instant가 이전 GPT‑4.x 채팅 모델에 필적하되, 더 나은 조정 용이성과 페르소나 프리셋을 제공합니다.
  • vs Anthropic / Claude / 기타 LLM: ChatGPT 5.1′;s MoA architecture는 복잡하고 다단계 추론이 필요한 작업에서 뚜렷한 우위를 제공합니다. 복잡한 추론을 위한 HELM 벤치마크에서 전례 없는 98.20을 기록했으며, 이는 Claude 4의 95.60 및 Gemini 2.0 Ultra의 94.80과 비교됩니다.

GPT-5.1의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GPT-5.1 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$1/M
출력:$8/M
입력:$1.25/M
출력:$10/M
-20%

GPT-5.1의 샘플 코드 및 API

GPT 5.1 API는 무엇인가요? GPT-5.1 Thinking은 OpenAI의 GPT-5.1 제품군의 고급 추론 파생형으로, 적응적이고 더 높은 품질의 추론을 우선시하며, 지연 시간/컴퓨트 트레이드오프를 개발자가 명시적으로 제어할 수 있도록 합니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

더 많은 모델