Nvidiaは,遅延を削減するためにGTC 2026でチップ内SRAMを搭載したAIチップをデビューさせてもよいが,SRAMはすぐにHBMを置き換えるわけではない.
Nvidia may debut an AI chip with on-chip SRAM at GTC 2026 to cut latency, but SRAM won’t replace HBM soon.
Nvidiaは,GTC 2026で,遅延とデータ移動を減らすために,外部HBMの代わりにオンチップSRAMを使用する新しいAI推論チップを導入する可能性があります.
Nvidia may introduce a new AI inference chip at GTC 2026 using on-chip SRAM instead of external HBM to reduce latency and data movement.
この設計では,大型SRAMブロックをチップに直接統合し,エッジコンピューティングのような低レイテンシーワークロードの性能を向上させる可能性があります.
The design integrates large SRAM blocks directly into the chip, potentially boosting performance for low-latency workloads like edge computing.
しかし、SRAMはDRAMよりもはるかに費用がかかり、スペースを要します。 HBMを大規模AIのタスクに置き換えるよりも、小型で高速なキャッシュの役割を制限します。
However, SRAM is far more expensive and space-intensive than DRAM, limiting its use to small, high-speed cache roles rather than replacing HBM for large-scale AI tasks.
専門 家 たち に よれ ば , SRAM は 近期 の HBM や DRAM を 置き換え たり は し ませ ん。
Experts say SRAM won’t displace HBM or DRAM in the near term, as the three will likely coexist in a layered memory hierarchy.
サムスンやSKハイニックスなどの主要メモリメーカーが市場の支配を維持するとともに,このシフトはゆっくりと進むと予想される.
The shift is expected to be gradual, with major memory makers like Samsung and SK hynix maintaining market dominance.