MITの研究では,客観的なトレーニングデータにかかわらず,大きなAI言語モデルが左寄りの偏見を表明している.

MITの研究者は,ChatGPTなどのAIアプリケーションで使われる大型言語モデルは,客観的な情報で訓練を受けたとしても,左寄りの政治的偏見を示すことができることを知った. 博士号候補であるSuyash Fulayと研究科学者のJad Kabbaraが率いるこの研究は,偽りのデータセットを使用したにもかかわらず,バイアスが持続し,これらのモデルの信頼性と潜在的な不正利用に関する懸念を高めることを示しました.

3ヶ月前
3 記事

さらに読む