OpenAIがGPT-5.3-Codex-Sparkを打ち上げ,セレブラスチップス用の高速で高速なコーディングモデルで,リアルタイムの開発速度とNVIAへの依存が低下した.
OpenAI launches GPT-5.3-Codex-Spark, a fast, lightweight coding model for Cerebras chips, offering real-time development speed and reduced reliance on Nvidia.
OpenAIはGPT-5-3-Codex-Sparkをリリースしました. セレブラズシステムズのワーファースケールチップに最適化された高速で高速なプログラミングモデルで,前モデルより1秒あたり1000個のトークンと25%の出力を送受信します.
OpenAI has released GPT-5.3-Codex-Spark, a fast, lightweight coding model optimized for Cerebras Systems’ wafer-scale chips, delivering over 1,000 tokens per second and 25% faster output than prior models.
デバッグやドキュメンテーションなどのリアルタイム開発作業のために設計され,以前のバージョンのトークンの半分、ターミナル・ベンチ2.0のスコア 77.3%、メモリのみ44GBで実行される.
Designed for real-time development tasks like debugging and documentation, it uses half the tokens of earlier versions, scores 77.3% on Terminal-Bench 2.0, and runs with just 44 GB of memory.
ChatGPT PlusとCodex Proのユーザーに今から提供されており,これはCerebrasとの100億ドルのパートナーシップの一環として,Nvidia以外のハードウェアでOpenAIの最初の主要な生産モデルをマークしています.
Available now to ChatGPT Plus and Codex Pro users, it marks OpenAI’s first major production model on non-Nvidia hardware, part of a $10 billion partnership with Cerebras.
幅広い能力を 犠牲にしている間にも,モデルは様々なAIハードウェアへの戦略転換を促し,NVIAへの依存を軽減し,開発者の低センサ化を促進する.
While it sacrifices broad capabilities for speed, the model signals a strategic shift toward diversified AI hardware, reducing reliance on Nvidia and emphasizing low-latency inference for developers.