OpenAI「GPT-5.5」公開。Codex 400KとAPI単価は日本の開発チームに何を変えるか
#OpenAI Akira 公開: 更新: 7分で読める

OpenAI「GPT-5.5」公開。Codex 400KとAPI単価は日本の開発チームに何を変えるか

解説レベル

目次

OpenAIが2026年4月23日にGPT-5.5を公開した。今回の更新は、単なる「少し賢くなった新モデル」ではない。一次ソースを読む限り、OpenAIはGPT-5.5をChatGPTでの知的作業Codexでの長文脈コーディングAPIでの業務実装という3つの面で同時に押し出している。

特に日本の開発チームにとって重要なのは、性能そのものよりも、どこで使えるのかいくらで使うのかがかなり具体化した点だ。ChatGPTでは有料プラン向けに段階的に開放され、Codexでは400K context windowとFast modeが示され、APIでは近日提供予定ながら、入力・出力単価まで先に出た。PoCを急ぐチームと、本番APIを待つチームで打ち手を分けやすくなっている。

事実: GPT-5.5で何が出たのか

OpenAI公式発表によると、GPT-5.5はChatGPTとCodexで先行ロールアウトされている。ChatGPTではPlus、Pro、Business、Enterprise向けにGPT-5.5 Thinkingが提供され、より高精度なGPT-5.5 ProはPro、Business、Enterprise向けだ。CodexではPlus、Pro、Business、Enterprise、Edu、Goで利用でき、400K context windowが与えられている。

さらにCodexでは、GPT-5.5をFast modeでも使える。OpenAIの説明では、Fast modeは通常より1.5倍速でトークンを生成し、コストは2.5倍になる。これは「とにかく最安」ではなく、「長いタスクを待たずに回したい開発チーム向け」の選択肢だと読める。

APIについては、まだ「very soon」とされていて即日一般提供ではない。ただし価格は既に示されている。公式発表では、gpt-5.5入力100万トークンあたり5ドル、出力100万トークンあたり30ドルgpt-5.5-pro入力30ドル、出力180ドルと案内された。さらにBatchとFlexは標準料金の半額、Priorityは標準の2.5倍とも書かれている。価格の先出しは珍しくないが、導入検討側からすると、PoC予算や稟議の見積もりを先に切れるのが大きい。

Help Centerの案内では、ChatGPTのモデルピッカー上でInstant / Thinking / Proという役割分担が明確化されている。GPT-5.5 Thinkingは有料プランで使え、ProはPro、Business、Enterprise、Eduで利用可能。BusinessとProでは「abuse guardrailsに従う範囲で無制限アクセス」と案内されている一方、Thinkingを手動選択したときのコンテキストは有料 tiers で256K、Pro tierでは400Kとされている。つまり、同じGPT-5.5でも、ChatGPTとCodexで見える上限は一致しない。

事実: ChatGPT・Codex・APIで何が違うのか

今回いちばん誤解しやすいのは、「GPT-5.5が出た」と聞いても、利用面は1枚岩ではないことだ。

ChatGPTでは、あくまで対話UIの中でThinkingやProを切り替えて使う世界だ。Help Centerを見ると、Apps、Memory、Canvas、画像生成はProでは使えないなど、モードごとの制約も残っている。つまり、ChatGPTは最も触りやすいが、プロダクトに埋め込む前段の評価環境として使うのが自然だ。

Codexは別だ。OpenAI公式はGPT-5.5を、コード、資料、調査、ツール横断の作業を最後まで進めるモデルとして位置づけている。ここで効いてくるのが400K context windowで、巨大なリポジトリ、仕様書、作業ログをまたいだエージェント的な作業と相性がいい。日本の受託開発や大企業内製では、複数の設計書、古い実装、運用手順書を抱えるケースが多いので、この長文脈はかなり実務寄りだ。

一方APIは、今この瞬間に本番投入できるわけではない。だが価格とコンテキスト方向性が出たことで、設計先行はできる。特にResponses APIやChat Completions APIでの提供が明言されているので、既にOpenAI APIを組み込んでいるチームは、SDKやログ基盤を大きく変えずに差し替えを検討しやすい。

考察: 日本の開発チームが先に見るべき論点

ここからは考察だが、GPT-5.5の価値は「最高性能を取るかどうか」だけではない。むしろ、日本のチームではどの面で先に触るかの切り分けが重要になる。

まず、社内開発の生産性改善を急ぐなら、API待ちよりCodex先行のほうが早い。400K context windowは、設計書、議事録、規約、既存コードが分断されがちな日本企業で効きやすい。特に金融、製造、SIerのようにドキュメント量が多い組織では、「モデルが賢い」こと以上に「参照できる範囲が広い」ことのほうがROIに直結する。

次に、顧客向けアプリへの組み込みは少し慎重でいい。API価格は見えたが、提供開始時期は「soon」であり、レート制限、地域、安定性、実運用のtoken効率まではまだ確定していない。ここで無理に実装を決め打ちすると、出てきた制約で再設計になりやすい。今やるべきなのは、プロンプト資産、評価観点、監査ログ、キャッシュ戦略を先に整えることだろう。

また、ChatGPT Businessの文脈では、単純な個人利用より組織導入が前提になりつつある。Help CenterではBusiness席でのモデルアクセス、利用上限、座席管理が明示されている。日本企業はまだ「個人課金で各自が試す」段階のところも多いが、GPT-5.5は明らかにその先、つまりチーム単位の統制された導入に向けた更新として読むべきだ。

考察: 導入判断で見落としやすい注意点

今回の発表は前向きな材料が多い一方で、見落としやすい点もある。

1つ目は、ChatGPTの使い勝手とAPIの実装難易度は別物だということ。ChatGPT上で高評価でも、そのままAPIで同じ体験が出るとは限らない。ワークフロー制御、ツール接続、再試行、コスト最適化は結局アプリ側の仕事だからだ。

2つ目は、価格表だけで判断しないこと。OpenAI自身が「GPT-5.4より高いが、よりtoken efficient」と説明している以上、実コストは単純な単価比較では決まらない。長いタスクを少ない往復で終わらせるなら、むしろ総額が下がる可能性もある。逆に雑に使えば高くつく。

3つ目は、安全性の扱いが強まっていることだ。公式発表では、GPT-5.5に対してサイバー関連の厳しい分類器や追加保護を入れたとされている。開発者目線では面倒に見えるが、日本企業にとっては監査や社内説明に使える材料でもある。高能力化と制御強化がセットで進んでいる点は、調達部門や情報セキュリティ部門への説明で意外と効く。

まとめ

GPT-5.5は、「ChatGPTで少し賢い新モデルが選べるようになった」という話では終わらない。Codexの400K長文脈、API価格の先出し、Business文脈での利用条件整理まで含めて、OpenAIが開発者と業務チームの両方を一段深く取りに来た更新だ。

日本の開発チームとしては、今すぐやることは割と明確だと思う。社内のコード・設計・調査用途はCodexやChatGPTで先に評価する。顧客向け組み込みはAPI提供開始を待ちながら、評価基盤とコスト設計を先に固める。 この順番で見るのが、いちばん事故が少ない。

出典