Mediaは,悪用防止のため,高リスクなAIシステムの分類及び制御のための新しいAIフレームワークを導入する. Meta introduces a new AI framework to categorize and control high-risk AI systems to prevent misuse.
Mediaは"FrontierAIフレームワーク"をリリースし,AIシステムをサイバーセキュリティ,化学,生物的攻撃の支援の可能性を踏まえて,高い重要な危険カテゴリーに分類した. Meta has released a "Frontier AI Framework" that classifies AI systems into high and critical risk categories based on their potential to aid in cybersecurity, chemical, and biological attacks. 高リスクのシステムでは、アクセスや管理が制限されます。 一方、危機的な危険システムでは、安全になるまで開発を停止します。 High-risk systems will have limited access and mitigations, while critical-risk systems will halt development until safer. この枠組みは、破壊的な結果を防ぐことを目指している。 メンターは、保護措置の制限を認めているが。 The framework aims to prevent catastrophic outcomes, though Meta acknowledges limitations in protection measures.