OpenAIのAIトランスクリプションツールであるWhisperは,医療環境で頻繁に"幻覚"を起こすことで,潜在的なリスクにつながります. OpenAI's AI-transcription tool, Whisper, frequently "hallucinates" in medical settings, leading to potential risks.
研究者らは,OpenAIのAIで作るトランスクリプションツールであるWhisperが 誤った文を生成することで頻繁に"幻覚"を起こすことを発見し,医療のようなリスクの高い業界で懸念を提起しています. Researchers have found that OpenAI's AI-powered transcription tool, Whisper, frequently "hallucinates" by generating false sentences, raising concerns in high-risk industries like healthcare. OpenAIは敏感な領域での使用を 警告しているが,多くの医療施設では患者の診察の記録に採用している. Despite OpenAI's warnings against its use in sensitive areas, many medical facilities have adopted it for transcribing patient consultations. 専門家たちはこれらの問題に対処するために連邦規制を要求している一方で,OpenAIは問題を認識し,改善に取り組んでいる. Experts are calling for federal regulations to address these issues, while OpenAI acknowledges the problem and is working on improvements.