OpenAI、プレートサイズのチップ上の異常に高速なコーディング モデルで Nvidia を回避

Date:

Share post:

しかし、1 秒あたり 1,000 トークンという数字は、Cerebras の基準からすると実際には控えめな数字です。同社は、 測定された Llama 3.1 70B では 1 秒あたり 2,100 トークン 報告されました OpenAI 独自のオープンウェイト gpt-oss-120B モデルでは 1 秒あたり 3,000 トークンであり、Codex-Spark の比較的遅い速度は、より大規模またはより複雑なモデルのオーバーヘッドを反映していることを示唆しています。

AI コーディング エージェントには、 ブレイクの年、次のようなツールを使用して OpenAIのコーデックス そしてアントロピックの クロード・コード プロトタイプ、インターフェイス、ボイラープレート コードを迅速に構築するための新たなレベルの有用性に到達します。 OpenAI、Google、Anthropic はすべて、より有能なコーディング エージェントの出荷を競い合っていますが、レイテンシが勝者を分けるものとなっています。コードを高速化するモデルにより、開発者はより高速に反復できるようになります。

Anthropic との熾烈な競争により、OpenAI は Codex ラインを急速に反復してきました。 解放する CEOのサム・アルトマン氏がGoogleからの競争圧力に関する社内「コードレッド」メモを発表した後、12月にGPT-5.2が公開され、つい数日前にGPT-5.3-Codexが出荷された。

Nvidia から離れて多角化する

Spark のより深いハードウェアのストーリーは、ベンチマーク スコアよりも重要な影響を与える可能性があります。このモデルは、Cerebras のディナー皿ほどの大きさのチップである Cerebras の Wafer Scale Engine 3 上で実行されます。 建てられた そのビジネスは少なくとも 2022 年から始まっています。OpenAI と Cerebras 発表された 1 月に両社のパートナーシップが締結され、Codex-Spark はそこから生まれた最初の製品です。

OpenAI は過去 1 年間、Nvidia への依存度を計画的に削減してきました。会社 署名済み 2025年10月にAMDとの大規模な複数年契約が締結され、 打った 11月にAmazonと380億ドルのクラウドコンピューティング契約を締結し、 設計する 独自のカスタム AI チップを搭載し、最終的には TSMC によって製造されます。

一方、NVIDIA と計画されている 1,000 億ドルのインフラストラクチャ契約は、 シュワシュワした これまでのところ、Nvidia はその後 200 億ドルの投資を約束しました。ロイター 報告されました OpenAI は、推論タスク用の一部の Nvidia チップの速度に満足できなくなったため、OpenAI が Codex-Spark を設計したのはまさにこの種のワークロードです。

どのチップが内部に搭載されているかに関係なく、精度は犠牲になるかもしれませんが、速度は重要です。コード エディターの中で AI の提案を待つことに日々を費やしている開発者にとって、1 秒あたり 1,000 個のトークンは、ジグソーを慎重に操縦するというよりは、切りのこを実行するようなものかもしれません。あなたが何を切っているのかを見てください。