医療で使用されている AI トランスクリプションツール Whisperは 偽テキストを作成し,患者の誤診を危険にさらしています. AI transcription tool Whisper used in healthcare found to create false text, risking patient misdiagnosis.
最近の研究によると 医療センターで広く使用されている AIのトランスクリプションツールである Whisperは 時には"幻覚"として知られる 偽のテキストを作成することがあります A recent study found that Whisper, an AI transcription tool widely used in medical centers, can sometimes create false text, known as "hallucinations." その ため に , 不 正確 な 医療 記録 や 誤診 など の 可能 性 の ある 誤り が 生じかね ませ ん。 This could lead to inaccurate medical records and potential errors like misdiagnosis. この ツール は 患者 と 医師 と の 会話 を 書き写す の に 用い られ , 医療 に おける 信頼 性 に 関する 懸念 を 高め ます。 The tool is used to transcribe conversations between patients and doctors, raising concerns about its reliability in healthcare settings.