新鮮でリアルなコンテンツで自然に言語を学ぼう!

タップして翻訳 - 記録

地域別に探す

flag 2025年の研究では,ChatGPTが科学的主張を評価する際に誤った不一致な答えを与えることが多く,虚偽の声明を特定するのに16.4%しか正確性がないことが明らかになりました.

flag ワシントン州立大学の研究者による2025年の研究では,科学的な主張を評価する際にChatGPTが不正確な答えを与えることが多く,ランダムな推測よりも60%しか正確ではないことが判明しました. flag 10回繰り返された700の科学的記述でテストされ AIは誤った主張を 正しく識別したのは16.4%であり,一貫した回答を提供したのは73%に過ぎなかった. flag 2024年の75%から2025年には80%にわずかに精度が向上したにもかかわらず,研究者はユーザ―特に専門家には AIの出力を検証し疑いを持ち続けるよう警告しています.このモデルは真の推論を欠いてパターン記憶に依存しているからです.

7 記事