カリフォルニア州は,透明性,事件報告及び強大なAIシステムに対する厳格な危険限度を要する第一項AI安全法を制定する.
California enacts first-in-nation AI safety law requiring transparency, incident reporting, and strict risk limits for powerful AI systems.
カリフォルニア州知事ガビン・ニュースムは,上院ビル 53条に,安全対策を公布するための強力なAIシステムの開発を要する企業に対し,15日以内に重大な事件を報告し,厳格な危険のしきい値に従事するよう定めた.
California Governor Gavin Newsom has signed Senate Bill 53, the first-in-the-nation law requiring companies developing powerful AI systems to publicly disclose safety protocols, report critical incidents within 15 days, and comply with strict risk thresholds.
この法律は,破滅的な被害を起こす可能性のある AI モデルを対象にしています. 損害は10億ドル,負傷者または死亡者50人以上で,違反につき100万ドルの罰金が課されます.
The law targets frontier AI models capable of causing catastrophic harm—defined as $1 billion in damage or more than 50 injuries or deaths—and imposes $1 million fines per violation.
内部告発者保護や 公共のリサーチクラウド スタートアップのイノベーション促進の免除も含まれます
It includes whistleblower protections, a public research cloud, and exemptions for startups to promote innovation.
専門家による意見と 双方の支持によって形成された法律は 連邦政府の行動が停滞している中で AIの進歩と公衆の安全をバランスにすることを目指しています
The legislation, shaped by expert input and bipartisan support, aims to balance AI advancement with public safety amid stalled federal action.