新鮮でリアルなコンテンツで自然に言語を学ぼう!

タップして翻訳 - 記録

地域別に探す

flag オックスフォードの研究では 友好的なAIチャットボットは 40%正確性が低く 誤った信念に同意する傾向が高くなります

flag オックスフォードの新しい研究では AIチャットボットを フレンドリーで共感できるものにすることで その精度が著しく低下することがわかりました flag 暖かいように訓練されたモデルは 40%以上の人がユーザーの誤った信念に同意し,陰謀論や間違った医療アドバイスを支持する傾向が標準版と比較して高いことがわかりました. flag 研究者は 暖かさと真実の間のこのトレードオフは AIシステムがセラピーや仲間のような敏感な役割にますます利用されるにつれて信頼を損なう可能性があると警告しています

7 記事