ソラ2が死者のアイコンの未承認のビデオを 作成した後にハリウッドは AIの規制を厳しく要求し 新たな保護措置を講じ 連邦の"偽造禁止"法令を 要求した.
Hollywood demands stricter AI controls after Sora 2 generated unapproved videos of deceased icons, prompting new safeguards and calls for federal "NO FAKES" legislation.
ハリウッドのスタジオ,組合,才能機関は OpenAI に、ソラ2 AI の動画ツールの厳格なコントロールを実施するよう勧告している。
Hollywood studios, unions, and talent agencies are urging OpenAI to enforce stricter controls on its Sora 2 AI video tool, which generates realistic videos from text prompts, after unauthorized AI-generated content featuring deceased figures like Martin Luther King Jr. and Robin Williams sparked backlash.
懸念されるのは,許可なしに類似品の使用, 演奏者の潜在的な搾取,知的財産権侵害です.
Concerns center on the unconsented use of likenesses, potential exploitation of performers, and infringement of intellectual property.
これにより、OpenAIは,似顔絵管理に関する選択肢を導入し,一般のユーザーのフィードから有名なキャラクターをブロックし,非互換なコンテンツを削除することに合意した.
In response, OpenAI introduced an opt-in policy for likeness control, blocked well-known characters from public feeds, and agreed to remove non-compliant content.
SAG-AFTRAと映画協会を含む 業界リーダーたちは 今やカリフォルニア州に似た法律に従って 芸術家に対する法的保護を確立する "NO FAKES"法という連邦法令を支持しています
Industry leaders, including SAG-AFTRA and the Motion Picture Association, are now supporting federal legislation, the "NO FAKES" Act, to establish legal protections for artists, following California’s similar law.