MITの研究では,客観的なトレーニングデータにかかわらず,大きなAI言語モデルが左寄りの偏見を表明している. MIT study reveals large AI language models exhibit left-leaning bias despite objective training data.
MITの研究者は,ChatGPTなどのAIアプリケーションで使われる大型言語モデルは,客観的な情報で訓練を受けたとしても,左寄りの政治的偏見を示すことができることを知った. Researchers at MIT found that large language models, used in AI applications like ChatGPT, can exhibit a left-leaning political bias even when trained on objective information. 博士号候補であるSuyash Fulayと研究科学者のJad Kabbaraが率いるこの研究は,偽りのデータセットを使用したにもかかわらず,バイアスが持続し,これらのモデルの信頼性と潜在的な不正利用に関する懸念を高めることを示しました. The study, led by PhD candidate Suyash Fulay and Research Scientist Jad Kabbara, showed that bias persisted despite using supposedly truthful datasets, raising concerns about the reliability and potential misuse of these models.