Home/Models/OpenAI/GPT-5.1
O

GPT-5.1

入力:$1/M
出力:$8/M
GPT-5.1は、製品のワークフロー全般にわたり、テキスト生成と推論に注力した汎用の指示追従に最適化された言語モデルです。複数ターンの対話、構造化された出力フォーマット、下書き作成・リファクタリング・解説といったコード志向のタスクをサポートします。代表的な用途には、チャットアシスタント、検索拡張型QA、データ変換、ツールやAPIがサポートされている場合のエージェント型自動化が含まれます。技術的なハイライトには、テキスト中心のモダリティ、指示追従、JSONスタイルの出力、一般的なオーケストレーションフレームワークの関数呼び出しとの互換性が含まれます。
新着
商用利用
Playground
概要
機能
料金プラン
API

GPT‑5.1 API とは、OpenAI の GPT‑5.1 ファミリーにおける高度な推論バリアントである GPT‑5.1 Thinking を指し、レイテンシ / コンピュートのトレードオフを開発者が明示的に制御できるようにしつつ、適応的で高品質な推論を優先します。

基本機能

  • 適応型推論: モデルは要求ごとに思考の深さを動的に調整します — 日常的なタスクでは高速、複雑なタスクではより粘り強く。これにより一般的な問い合わせでのレイテンシとトークン使用が減ります。複雑なプロンプトには明示的により多くの推論時間を割り当て、マルチステップ問題ではより粘り強く取り組みます。難しい課題では遅くなる場合がありますが、より深い回答を提供します。
  • 推論モード: none / low / medium / high(GPT‑5.1 は低レイテンシ用途では既定でnone。より要求の高いタスクでは高いレベルを選択)。Responses API はこれを制御するための reasoning パラメータを公開します。
  • 既定の口調と文体: 複雑なトピックをより明快に(専門用語を少なめに)、説明的で「丁寧」。
  • コンテキストウィンドウ(トークン / ロングコンテキスト)Thinking: はるかに大きい — 有料ティアで400Kトークンのコンテキスト。

主要な技術詳細

  • 適応的な計算割り当て — 学習と推論の設計により、モデルは些細なタスクにはより少ない推論トークンを、難しいタスクには比例して多くを消費します。これは別個の「思考エンジン」ではなく、推論パイプライン内部での動的な割り当てです。
  • Responses API の推論パラメータ — クライアントはより深い内部推論を要求するために reasoning オブジェクト(例: reasoning: { "effort": "high" })を渡します。reasoning: { "effort": "none" } を設定すると、低レイテンシのため拡張内部推論パスが事実上無効化されます。Responses API は推論 / トークンのメタデータも返します(コストやデバッグに有用)。 )
  • ツールと並列ツール呼び出し — GPT‑5.1 は並列ツール呼び出しを改善し、プログラムによる編集の失敗モードを減らす名前付きツール(例: apply_patch)を含みます。並列化により、ツール依存度の高いワークフローのエンドツーエンドのスループットが向上します。
  • プロンプトキャッシュと永続化 — prompt_cache_retention='24h' が Responses と Chat Completions のエンドポイントでサポートされ、マルチターンのセッション間でコンテキストを保持します(繰り返しのトークンエンコードを削減)。

ベンチマーク性能

レイテンシ / トークン効率の例(ベンダー提供): 日常的なクエリでは、OpenAI は大幅なトークン / 時間の削減を報告しています(例: npm のリスティングコマンドが GPT‑5 では約10秒 / 約250トークンかかったのに対し、代表的なテストで GPT‑5.1 では約2秒 / 約50トークン)。外部の初期テスター(例: 資産運用会社、コーディング企業)は、多くのタスクで 2–3× の高速化と、ツール中心のフローでのトークン効率向上を報告しました。

OpenAI と初期パートナーは、代表的なベンチマークの主張と測定された改善を公開しました:

評価GPT‑5.1 (high)GPT‑5 (high)
SWE-bench Verified (全500問題)76.3%72.8%
GPQA Diamond (ツールなし)88.1%85.7%
AIME 2025 (ツールなし)94.0%94.6%
FrontierMath (Python ツールあり)26.7%26.3%
MMMU85.4%84.2%
Tau2-bench Airline67.0%62.6%
Tau2-bench Telecom*95.6%96.7%
Tau2-bench Retail77.9%81.1%
BrowseComp Long Context 128k90.0%90.0%

制限事項と安全上の考慮事項

  • 幻覚のリスクは依然として残ります。適応型推論は複雑な問題で役立ちますが、幻覚を排除するものではありません。reasoning_effort を高くすると検証が強化されますが、正確性を保証するものではありません。高リスクの出力は常に検証してください。
  • リソースとコストのトレードオフ: GPT‑5.1 は単純なフローでははるかにトークン効率的になり得ますが、高い推論努力を有効にしたり、エージェント的なツール使用を長時間行うと、トークン消費とレイテンシが増加します。適切な場面ではプロンプトキャッシュを用いて繰り返しコストを抑えてください。
  • ツールの安全性: apply_patch や shell のようなツールは自動化の力(とリスク)を高めます。本番導入ではツール実行にゲートを設け(実行前に差分 / コマンドをレビュー)、最小権限を適用し、堅牢な CI/CD と運用ガードレールを整備してください。

他モデルとの比較

  • vs GPT‑5: GPT‑5.1 は適応型推論と指示順守が向上しました。OpenAI は、容易なタスクでの応答時間の短縮と、難しいタスクでの粘り強さの向上を報告しています。GPT‑5.1 はまた none 推論オプションと拡張プロンプトキャッシュを追加しています。
  • vs GPT‑4.x / 4.1: GPT‑5.1 は、よりエージェント的でツール中心、コーディング指向のタスク向けに設計されています。OpenAI とパートナーは、コーディング系ベンチマークやマルチステップ推論での改善を報告しています。標準的な会話タスクの多くでは、GPT‑5.1 Instant は従来の GPT‑4.x チャットモデルに匹敵しますが、操縦性や人格プリセットが改善されています。
  • vs Anthropic / Claude / other LLMs: ChatGPT 5.1 の MoA アーキテクチャは、複雑でマルチステップの推論を要するタスクで明確な優位性をもたらします。複雑な推論に関する HELM ベンチマークで前例のない 98.20 を記録し、Claude 4 の 95.60 や Gemini 2.0 Ultra の 94.80 を上回りました。

GPT-5.1の機能

GPT-5.1のパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

GPT-5.1の料金

GPT-5.1の競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。GPT-5.1がコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$1/M
出力:$8/M
入力:$1.25/M
出力:$10/M
-20%

GPT-5.1のサンプルコードとAPI

GPT 5.1 API とは何かというと、GPT-5.1 Thinking は OpenAI の GPT-5.1 ファミリーにおける高度な推論バリアントで、レイテンシーとコンピュートのトレードオフを開発者が明示的に制御できるようにしつつ、適応的で高品質な推論を優先します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

その他のモデル