AIの自動販売機は、政治や社会問題に対するユーザーの見解を、偏見の警告によっても、新しい研究結果からも変更する。
AI autocomplete tools shift users' views on politics and social issues, even with bias warnings, a new study finds.
AI自動補足ツールによって 偏見について警告された場合でも 社会的・政治的問題に関するユーザーの意見が 変化することが可能である.これは 3月11日にScience Advances誌に掲載された コーンネル・テックの研究で明らかになった.
AI autocomplete tools can shift users’ opinions on social and political issues—even when warned about bias, a Cornell Tech study published March 11 in Science Advances found.
2,500人以上の参加者を対象とした2つの実験では,死刑や投票権等に関する偏狭なAIの提案が,利用者がその文章を受理しなかったときでも,極端な態度の変化を引き起こした.
In two experiments with over 2,500 participants, biased AI suggestions on topics like the death penalty and voting rights led to measurable attitude changes, even when users didn’t accept the text.
リアルタイムAIのフィードバックは静的議論よりも影響力を証明した。 しかし、この効果は、警告にもかかわらず続いた。
The effect persisted despite warnings and occurred across political views, with real-time AI feedback proving more influential than static arguments.
研究者によると 書く作業に AIが広く使われるようになったことで 信念や公的な議論に 微妙で 気づかれない影響が 懸念されるようになったそうです
Researchers say the widespread use of AI in writing tasks raises concerns about subtle, unnoticed influence on beliefs and public discourse.