BMJ Quality & Safety の研究では 薬物の情報を得るのに AI チャットボットを使用しないよう警告しています 誤差が46%で 危険性も高いからです Study in BMJ Quality & Safety warns against using AI chatbots for drug info due to 46% inaccuracy and potential harm.
BMJ Quality & Safety誌に掲載された研究では AI チャットボットを使って 薬物情報を得ないように警告し 多くの回答が不正確で 潜在的に有害であることを明らかにしています A study published in the Journal BMJ Quality & Safety cautions against using AI chatbots for drug information, revealing many responses are inaccurate or potentially harmful. この研究では,米国で最も多く処方される 50の薬のチャットボット回答を評価し, 54%だけが科学的コンセンサスと一致していることがわかりました. The research assessed chatbot answers for the top 50 prescribed drugs in the U.S., finding only 54% aligned with scientific consensus. さらに42%の回答は中程度の被害を招く可能性があり,22%は重度の被害に繋がった. Additionally, 42% of responses could cause moderate harm, with 22% linked to severe harm. 答え の 複雑 さ は,患者 の 理解 を 妨げ て も しまう か も しれ ませ ん. The complexity of answers may also hinder patient understanding.