Feb 13 2026
OpenAIがリアルタイムコーディングAI「GPT-5.3-Codex-Spark」を発表
📖 この記事で分かること
- OpenAIが秒速1000トークン超の高速コーディングモデルを公開した
- Cerebrasとの提携により専用チップで超低遅延を実現している
- ChatGPT Proユーザー向けにリサーチプレビューとして提供が始まった
- 今後はマルチモーダル対応や大規模モデルへの拡張が予定されている
💡 知っておきたい用語
- 推論(インファレンス):AIモデルが質問に対して回答を生成する処理のこと。料理に例えると、レシピ(学習済みモデル)を使って実際に料理を作る工程にあたります。推論が速いほど、AIの応答が素早くなります。
最終更新日: 2026年02月13日
OpenAIが「リアルタイムコーディング」に特化した新モデルを投入
OpenAIは2026年2月13日(現地時間12日)、GPT-5.3-Codex-Spark(以下、Codex-Spark)を発表しました。同社がリアルタイムのコーディング作業に特化して設計した初のモデルです。
Codex-Sparkは、2月5日にリリースされたGPT-5.3-Codexの軽量版という位置づけです。GPT-5.3-Codexが数時間〜数日にわたる長期的なタスクを得意とするのに対し、Codex-Sparkは「即座のフィードバック」を最優先に設計されています。
主な特徴は以下のとおりです。
- 秒速1,000トークン以上の高速テキスト生成
- 128Kトークンのコンテキストウィンドウ(テキストのみ対応)
- ChatGPT Proユーザー向けのリサーチプレビューとして提供開始
- Codexアプリ、CLI【コマンドラインインターフェース】、VS Code拡張機能で利用可能
- 一部のAPIパートナーにも早期アクセスを提供
OpenAIはこのモデルを「長期タスクとリアルタイム作業という、2つの補完的なモードを備えたCodexへの第一歩」と位置づけています。
Cerebrasとの提携がもたらす「超低遅延」の仕組み
Codex-Sparkの速度を支えているのは、半導体スタートアップCerebras Systems(セレブラス・システムズ)の専用チップです。OpenAIにとって、NVIDIA以外のハードウェアパートナーを推論に活用する初の大きな動きとなります。
Codex-Sparkは、Cerebrasの「Wafer Scale Engine 3(ウェハースケールエンジン3)」上で動作します。これはAI推論に特化した専用アクセラレーターで、125ペタフロップスの処理能力を持つとされています。
OpenAIとCerebrasの提携は2026年1月に発表されており、100億ドル(約1.5兆円)を超える複数年契約と報じられています。Cerebrasは直近で10億ドルの資金調達を実施し、評価額は230億ドルに達しました。
ハードウェアだけでなく、OpenAIはインフラ全体でも最適化を施しています。
- クライアント・サーバー間のラウンドトリップオーバーヘッドを80%削減
- トークンあたりのオーバーヘッドを30%削減
- 最初のトークンが返るまでの時間(Time-to-First-Token)を50%削減
- 永続的なWebSocket【ウェブソケット】接続をデフォルトで有効化
OpenAIのコンピュート責任者であるSachin Katti氏は「ウェハースケールの計算資源を本番環境に投入することで、レイテンシーに敏感な作業でCodexの応答性を維持する新しい手段が得られた」と述べています。なお、OpenAIは「GPUは引き続きトレーニングと推論パイプライン全体の基盤である」とも強調しています。
ベンチマーク性能と「速度と精度のトレードオフ」
Codex-Sparkは速度に最適化されたモデルであり、フルサイズのGPT-5.3-Codexとは性能特性が異なります。速度と引き換えに、一部の複雑なタスクでは精度が下がる点は認識しておく必要があります。
公開されているベンチマーク情報では、SWE-Bench ProとTerminal-Bench 2.0の2つの指標で評価されています。The New Stackの報道によると、Terminal-Bench 2.0ではCodex-Sparkが58.4%に対し、GPT-5.3-Codexは77.3%でした。ただし、Codex-Sparkはこれらのタスクを大幅に短い時間で完了するとされています。
また、OpenAIの公式発表によれば、Codex-SparkはGPT-5.1-Codex-miniを上回る性能を示しており、軽量モデルとしては高い実力を備えています。
Codex-Sparkが得意とする作業は以下のとおりです。
- コード内のピンポイントな編集・修正
- ロジックの書き換え・リファクタリング
- UIレイアウトの素早いプロトタイピング
- コードベースに関するコンテキストを踏まえた質疑応答
開発者は作業中にモデルを中断・方向転換でき、リアルタイムで素早く反復作業ができる設計になっています。
今後の展開と注目すべきポイント
現時点でCodex-Sparkはリサーチプレビューの段階にあり、いくつかの制約があります。テキストのみの対応であること、専用のレート制限が設けられていること、需要が高い場合にはアクセスが一時的に制限される可能性があることなどです。API向けの料金情報はまだ公開されていません。
OpenAIは今後、Codex-Sparkのモデルファミリーについて以下の拡張を予定していると述べています。
- より大規模なモデルの追加
- コンテキストウィンドウの拡大
- マルチモーダル入力への対応
安全性に関しては、Codex-Sparkには他のOpenAIモデルと同等の安全性トレーニングが施されており、サイバーセキュリティや生物学の分野で高リスク能力の閾値には達していないとのことです。
AI搭載の開発者ツール市場は競争が激化しています。Anthropicの新製品やGoogle、Microsoft、Amazonの動向もあり、「速度」と「知能」のバランスをどう取るかは、今後の開発者ツールの方向性を左右する重要なテーマとなりそうです。
よくある質問
Q: GPT-5.3-Codex-Sparkは誰が使えますか?
A: 現時点ではChatGPT Proユーザー向けのリサーチプレビューとして提供されています。Codexアプリ、CLI、VS Code拡張機能から利用可能です。一部のAPIパートナーにも早期アクセスが提供されています。
Q: GPT-5.3-Codexとの違いは何ですか?
A: GPT-5.3-Codexは数時間〜数日にわたる長期的で複雑なタスクに最適化された大規模モデルです。一方のCodex-Sparkは軽量版で、秒速1,000トークン以上の速度を活かしたリアルタイムのコーディング作業に特化しています。ベンチマーク精度は劣りますが、タスクの完了速度が大幅に速いのが特徴です。
Q: 料金はいくらですか?
A: 2026年2月13日時点では、API向けの料金情報は公開されていません。リサーチプレビュー期間中は通常のレート制限とは別枠で利用でき、標準のレート制限にはカウントされません。
まとめ
GPT-5.3-Codex-Sparkは、OpenAIがCerebrasとの提携を通じて投入したリアルタイムコーディング特化型のAIモデルです。秒速1,000トークン超の高速推論により、開発者がAIと対話しながらコードを素早く修正・反復できる新しい作業スタイルを提案しています。フルサイズのGPT-5.3-Codexと補完関係にあり、「じっくり考えるAI」と「即座に応答するAI」を使い分けるという方向性が、今後の開発者ツールの標準になるかもしれません。
【用語解説】
- Codex【コーデックス】: OpenAIが提供するAI搭載のコーディングエージェント。自律的にコードの記述・レビュー・デバッグを行い、開発者の作業を支援するツールおよびプラットフォームです。
- Wafer Scale Engine【ウェハースケールエンジン】: Cerebras社が開発した、ウェハー(半導体基板)1枚をまるごと使った巨大なAI専用チップ。通常のGPUとは異なるアプローチで超低遅延の推論処理を実現します。
- リサーチプレビュー: 正式リリース前に限定ユーザーへ提供される試験版。機能やアクセスに制約がある場合がありますが、いち早く新技術を試せる段階です。
免責事項: 本記事の情報は執筆時点のものです。AI技術は急速に進歩しているため、機能や制限は予告なく変更される場合があります。
引用元:
- [1] OpenAI公式ブログ – https://openai.com/index/introducing-gpt-5-3-codex-spark/
- [2] Cerebras公式ブログ – https://www.cerebras.ai/blog/openai-codexspark
15年以上の開発経験を持つソフトウェアエンジニア。クラウドやWeb技術に精通し、業務システムからスタートアップ支援まで幅広く手掛ける。近年は、SaaSや業務システム間の統合・連携開発を中心に、企業のDX推進とAI活用を支援。
技術だけでなく、経営者やビジネスパーソンに向けた講演・執筆を通じて、生成AIの最新トレンドと実務への落とし込みをわかりやすく伝えている。
また、音楽生成AIのみで構成したDJパフォーマンスを企業イベントで展開するなど、テクノロジーと表現の融合をライフワークとして探求している。