オーストラリアの診療所のAI医療書記者がハッキングされ 有害なコンテンツを生成し データ漏洩がないにもかかわらず 安全性審査を促しました
An AI medical scribe in Australian clinics was hacked to generate harmful content, prompting a safety review despite no data breach.
サイバーセキュリティ企業では,ハイディ・ヘルスによって開発されたオーストラリアのクリニックで使用されているAI医療書記者が"ジャイルブレイク"プロンプトを通じて有害なコンテンツを生成するために操作できることが示されましたが,患者データや他のユーザーのセッションにアクセスすることはできません.
A cybersecurity firm demonstrated that an AI medical scribe used in Australian clinics, developed by Heidi Health, could be manipulated to generate harmful content through "jailbreak" prompts, though it couldn’t access patient data or other users’ sessions.
倫理的な制限を回避する AI を可能にする脆弱性は,公開前に内部で修正されました.
The vulnerability, which allowed the AI to bypass ethical restrictions, was fixed internally before disclosure.
ハイディ・ヘルスは現在,行政ツールとして分類されているためオーストラリアの治療用品管理局 (TGA) の監督外にあるが,TGAはAIスクライブのレビューを開始し,安全対策の失敗により機能に関係なく規制を起こす可能性があると警告した.
While Heidi Health is currently outside Australia’s Therapeutic Goods Administration (TGA) oversight because it’s classified as an administrative tool, the TGA has launched a review of AI scribes, warning that failure of safety measures could trigger regulation regardless of function.
専門家たちは,他のAIシステムにも同様のリスクが存在し,採用が拡大するにつれて医療におけるAIの信頼性について懸念を提起していると指摘しています.
Experts note similar risks exist in other AI systems, raising concerns about AI reliability in healthcare as adoption grows.