2025年の研究では,ChatGPTが科学的主張を評価する際に誤った不一致な答えを与えることが多く,虚偽の声明を特定するのに16.4%しか正確性がないことが明らかになりました.
A 2025 study reveals ChatGPT often gives inaccurate, inconsistent answers when assessing scientific claims, with only 16.4% accuracy in identifying false statements.
ワシントン州立大学の研究者による2025年の研究では,科学的な主張を評価する際にChatGPTが不正確な答えを与えることが多く,ランダムな推測よりも60%しか正確ではないことが判明しました.
A 2025 study by Washington State University researchers finds ChatGPT frequently gives inaccurate and inconsistent answers when evaluating scientific claims, with accuracy only 60% better than random guessing.
10回繰り返された700の科学的記述でテストされ AIは誤った主張を 正しく識別したのは16.4%であり,一貫した回答を提供したのは73%に過ぎなかった.
Tested on 700 scientific statements repeated 10 times, the AI correctly identified false claims just 16.4% of the time and provided consistent responses only 73% of the time.
2024年の75%から2025年には80%にわずかに精度が向上したにもかかわらず,研究者はユーザ―特に専門家には AIの出力を検証し疑いを持ち続けるよう警告しています.このモデルは真の推論を欠いてパターン記憶に依存しているからです.
Despite a slight accuracy improvement from 75% in 2024 to 80% in 2025, researchers warn users—especially professionals—to verify AI outputs and remain skeptical, as the model lacks true reasoning and relies on pattern memorization.