Zenlayerは,グローバルAI推論プラットフォームを立ち上げ,300以上のグローバルロケーションでGPUの最適化により,遅延時間を最大40%削減しました.
Zenlayer launches global AI inference platform, cutting latency by up to 40% with optimized GPU use across 300+ global locations.
Zenlayerは50カ国の300以上の拠点のネットワークを通じてGPUの使用を最適化し,遅延を削減することで,AIモデル展開を簡素化するグローバルプラットフォームであるDistributed Inferenceを立ち上げました.
Zenlayer has launched Distributed Inference, a global platform that simplifies AI model deployment by optimizing GPU use and reducing latency through its network of 300+ points of presence in 50 countries.
システムは,高度な計画,ルーティング,メモリ管理を活用して,エッジでリアルタイムの推測を可能とし,30パーセントまで遅滞を削り,自動的なオーケストラや既成のフレームワークを備えた幅広いモデルをサポートする.
The system uses advanced scheduling, routing, and memory management to enable real-time inference at the edge, cutting latency by up to 40% and supporting a wide range of models with automated orchestration and ready-to-use frameworks.
インフラの整備の必要性をなくし 地域をより速く コスト効果の拡大を促します
It eliminates the need for customers to manage infrastructure, allowing faster, more cost-effective scaling across regions.
ゼナーのネットワークは25ミリ秒以内に世界的なインターネット人口の85%に達した。 これは、世界中の信頼性のあるリアルタイムAI情報の提供に大きな一歩を踏み出している。
Zenlayer’s network reaches 85% of the global internet population within 25 milliseconds, marking a major step forward in delivering reliable, real-time AI intelligence worldwide.