Nvidiaは,より速く,より効率的なAI推論のためのGroq 3 LPUラックをリリースし,2026年末に出荷する.
Nvidia launches Groq 3 LPU racks for faster, more efficient AI inference, shipping late 2026.
NvieviaはGloq 3 言語処理ユニット (LPU)を起動し、LPXサーバのラックを関連付け、GroqのテクノロジーをVera Rubinのプラットフォームに統合し、AIの推測速度と効率を向上させた。
Nvidia has launched the Groq 3 Language Processing Unit (LPU) and associated LPX server racks, integrating Groq’s technology into its Vera Rubin platform to boost AI inference speed and efficiency.
レイクあたり256個のLPUを搭載したシステムは,ワット当たり35倍以上のスループットで,最大1,500トークンを秒速で提供し,兆のパラメータモデルとエージェント性AIのワークロードをターゲットにします.
The system, featuring 256 LPUs per rack, delivers up to 1,500 tokens per second with 35 times higher throughput per watt, targeting trillion-parameter models and agentic AI workloads.
NvidiaのRubin GPUとVera CPUを補完するように設計されたこのプラットフォームは,遅延と電力使用を削減し,百万トークンあたりの収益を増加させることを目的としています.
Designed to complement Nvidia’s Rubin GPUs and Vera CPUs, the platform aims to reduce latency and power use while enabling higher revenue per million tokens.
Groq 3 LPXラックは2026年末に出荷され,NvidiaはオープンソースのDynamo 1.0ソフトウェアプラットフォームを導入し,大規模AI推論を合理化する予定です.
The Groq 3 LPX racks are expected to ship in late 2026, with Nvidia also introducing the open-source Dynamo 1.0 software platform to streamline large-scale AI inference.
この動きは、競争の拡大や、ハイパースケールやAIサービスの提供者からの需要の増加に伴う専門的専門的ハードウェアへの戦略的移行を示すものである。
The move marks a strategic shift toward specialized inference hardware amid growing competition and rising demand from hyperscalers and AI service providers.