中国のAIスタートアップであるディープシークは,大規模なモデルをより効率的に作る新しい方法を導入し,コストを削減し,スケーラビリティを向上させています.
Chinese AI startup DeepSeek introduces new method to make large models more efficient, reducing costs and boosting scalability.
中国人のAIスタートアップであるDeepSeekは マニフォールド・コンストラインド・ハイパー・コネクションという 新しいトレーニング方法を公開しました 大型AIモデルを効率的かつスケーラブルにすることで 計算とエネルギーコストを削減できます
DeepSeek, a Chinese AI startup, has unveiled a new training method called Manifold-Constrained Hyper-Connections, designed to make large AI models more efficient and scalable while reducing computational and energy costs.
Liang Wenfengが著作物を設立しArXivに掲載した紙の共同著作物であるこの技法は,前モデルにおける訓練の不安定とメモリ問題に対応し,30億から27億のパラメータシステムで安定したトレーニングを可能としている.
The technique, detailed in a paper co-authored by founder Liang Wenfeng and published on arXiv, addresses training instability and memory issues in prior models, enabling stable training across 3 billion to 27 billion parameter systems with minimal added compute.
このアプローチは、米国の半導体制限にもかかわらず、中国がAI革新を推進する動きを反映している。
Building on ByteDance’s earlier work, the approach reflects China’s push for AI innovation despite U.S. semiconductor restrictions.
ディープ・シークの次の主要モデルに期待している。 おそらくR2が2月に春フェスティバルを開催すると予想していた。
The release fuels anticipation for DeepSeek’s next major model, possibly R2, expected around the Spring Festival in February.