AIモデルのほとんどが、倫理上の懸念や、信仰に基づく主要なAIのイニシアチブを正確に表現していないことが、研究によって明らかになった。
A study reveals most AI models fail to accurately represent Christian values, sparking ethical concerns and a major faith-based AI initiative.
新しい研究では,大型言語モデルのほとんどが、キリスト教の価値観を正確に伝えるために苦労している。 信仰に基づく質問に平均66点を割り出す。
A new study finds most large language models struggle to accurately convey Christian values, scoring an average of 66 out of 100 on faith-based questions, with models often using secular terms instead of biblical language.
コロラド州の技術プラットフォームであるGlooが実施したこの研究は,AIの道徳的根拠の欠如に対する懸念を強調し,ノートルダム大学が信仰に基づくAI倫理のための5000万ドル規模のイニシアティブを開始するよう促した.
The research, conducted by Colorado tech platform Gloo, highlights concerns over AI’s lack of moral grounding, prompting Notre Dame to launch a $50 million initiative for faith-based AI ethics.
一方 伝統的な教会から離れていた アメリカ人の数は 増え続けていますが 精神的な指導を AI チャットボットに頼り 宗教の権威や人格 そして信仰におけるテクノロジーの役割に関する議論を 助長しています
Meanwhile, growing numbers of Americans, especially those disengaged from traditional churches, are turning to AI chatbots for spiritual guidance, fueling debates over religious authority, personhood, and the role of technology in faith.