Anstricsは,米国防総省及び競争の圧力を受けて,安全第一のAI開発政策を放棄した.
Anthropic abandoned its safety-first AI development policy under pressure from the U.S. Defense Department and competition.
アントロピックは厳格な責任あるスケーリングポリシーを放棄し,競合他社がより速く進歩している場合,安全性上の懸念を理由にAI開発を停止することを約束しません.
Anthropic has abandoned its strict Responsible Scaling Policy, no longer committing to halt AI development over safety concerns if competitors are advancing faster.
この変更は,競争的な圧力と連邦規制の欠如によって推し進められ,公益目標の施策のない"安全道路図面"に縛り付けられた保護を代用する.
The change, driven by competitive pressure and lack of federal regulation, replaces binding safeguards with a nonbinding "Frontier Safety Roadmap" of public goals.
この変更は、米国国防総省からの要求が高まっていることを受けてのもので、国防生産法を適用し、アンソロピックが制限を緩和しなければ2億ドルの契約を打ち切ると脅した。
The shift follows escalating demands from the U.S. Defense Department, which threatened to invoke the Defense Production Act and cut a $200 million contract unless Anthropic relaxed its restrictions.
会社は、AIが自律的な武器や大量監視に使用することを許可しない一方,この移動は,産業からの圧力が高まっている中におけるその本来の安全第一歩から,速やかさと国家安全保障の利害への重要な転換に向け,著しく進歩する姿勢を表明する.
While the company maintains it won’t allow AI use in autonomous weapons or mass surveillance, the move marks a significant pivot from its original safety-first stance amid growing industry pressure to prioritize speed and national security interests.