Guard's AIは1971年の殺害事件でオーストラリアのデザイナーを不当に非難し、証拠を捏造し,害を及ぼす。
Google's AI falsely accused an Australian designer of a 1971 murder, fabricating evidence and causing harm.
Google AI モードは、無邪気なオーストラリアのグラフィックデザイナーを、少年のジェリー・グリムに失踪した犯人だと偽って識別し、彼は"メルキュリー"として知られると述べ、1971年に自供していた。
Google’s AI Mode falsely identified an innocent Australian graphic designer as the murderer of missing toddler Cheryl Grimmer, claiming he was known as "Mercury" and had confessed in 1971.
このエラーは 1970年代の事件文書を編集し イラストを作成する際の デザイナーの役割を誤って解釈し 偽の情報源や 議会の名称を主張するなど 詳細を捏造したことで発生しました
The error stemmed from the AI misinterpreting the designer’s role in redacting a 1970s case document and creating an illustration, fabricating details including false sources and a claim of parliamentary naming.
AIは詳細だが完全な物語を作り,問題を引き起こし,法律上の懸念を提起した.
The AI generated a detailed but entirely fictional narrative, causing distress and raising legal concerns.
専門 家 たち に よれ ば , AI システム は 多く の 場合 , 文脈 なし で 名前 を 結びつける こと に よっ て 幻覚 を 起こし ます。
Experts say AI systems often hallucinate by linking names without context.
Googleはそのミスを認め,内容を除去し,当該事件をその制度の改善に利用しているが,説明責任措置を講じていないと語った.
Google acknowledged the mistake, removed the content, and said it’s using the incident to improve its systems, but offered no accountability measures.
同様 の AI の 誤り は , ジャーナリスト や 虚偽 の データ を 偽っ て 非難 し , 機密 情報 を 得る ため に 自動 的 な 要約 に 頼る 危険 性 が 増大 し て いる こと を 強調 し て い ます。
Similar AI errors have falsely accused journalists and misrepresented data, highlighting growing risks in relying on automated summaries for sensitive information.