新鮮でリアルなコンテンツで自然に言語を学ぼう!

タップして翻訳 - 記録

地域別に探す

flag MITの研究では,客観的なトレーニングデータにかかわらず,大きなAI言語モデルが左寄りの偏見を表明している.

flag MITの研究者は,ChatGPTなどのAIアプリケーションで使われる大型言語モデルは,客観的な情報で訓練を受けたとしても,左寄りの政治的偏見を示すことができることを知った. flag 博士号候補であるSuyash Fulayと研究科学者のJad Kabbaraが率いるこの研究は,偽りのデータセットを使用したにもかかわらず,バイアスが持続し,これらのモデルの信頼性と潜在的な不正利用に関する懸念を高めることを示しました.

6ヶ月前
3 記事

さらに読む