スーパーミクロは2025年のイベントで,新AIモデリングサーバとエッジシステム(GVIDIAの最新GPUやCPUなど)を公開し,高性能,エネルギー効率のAIのワークロードを設計した.
Supermicro unveiled new AI-optimized servers and edge systems at its 2025 event, featuring NVIDIA’s latest GPUs and CPUs, designed for high-performance, energy-efficient AI workloads.
Supermicroは,新しいAI最適化されたサーバーとエッジシステムを INNOVATEで発表しました!
Supermicro launched new AI-optimized servers and edge systems at its INNOVATE!
マドリードで開催されるEMEA 2025イベントでは,NVIDIAのHGX B300とGB300 NVL72GPU,Grace C1 CPU,そしてJetson Orin NXモジュールを高性能AIワークロードに搭載した.
EMEA 2025 event in Madrid, featuring NVIDIA’s HGX B300 and GB300 NVL72 GPUs, Grace C1 CPUs, and Jetson Orin NX modules for high-performance AI workloads.
このラインアップには,ARS-111L-FR,ファンレス・ARS-E103-JONXなどのコンパクトでエネルギー効率の良いエッジモデルを含むとともに,Inter Xeon 6 SoCを備えた2Uサーバーもあって,すべて流体冷却をサポートしており,データセンターの電力消費を3割まで削減している.
The lineup includes compact, energy-efficient edge models like the ARS-111L-FR and fanless ARS-E103-JONX, along with a 2U server with Intel Xeon 6 SoC, all supporting liquid cooling to cut data center power use by up to 40%.
AI検定,ネットワーク,リアルタイム処理用に設計されたモジュールシステムは,米国,オランダ,台湾,マレーシアに設置され,クラウドから5Gまでのさまざまなアプリケーションをサポートしている.
Designed for AI inference, networking, and real-time processing, the modular systems are built in the U.S., Netherlands, Taiwan, and Malaysia, and support diverse applications from cloud to 5G.
AMD,インテル,NVIDIAとの連携を継続し、自動化と効率の良いインフラを供給している。
Supermicro continues partnerships with AMD, Intel, and NVIDIA to deliver scalable, efficient infrastructure.