主要な調査結果によると,AIニュースのアシスタントはしばしば不正確又は不十分な情報を提供し,反応の88%が欠陥がある.
A major study reveals AI news assistants frequently provide inaccurate or poorly sourced information, with 81% of responses flawed.
欧州放送連合とBBCの主要な調査により,CharacterPT,Coject,Gemin,PerfixyなどのAIの主要アシスタントは,しばしば不正確または誤解的なニュースを発信し,主要な問題を含む45%の回答と81%の欠陥を示す.
A major study by the European Broadcasting Union and BBC finds that leading AI assistants like ChatGPT, Copilot, Gemini, and Perplexity frequently deliver inaccurate or misleading news, with 45% of responses containing major issues and 81% showing some flaw.
14言語で3000件の回答を分析した結果 偽りの事実や 時代遅れの情報や 悪い情報源などの 広範な問題が発見され ゲミニは 72%で 最も高い 引用誤差率を示しています
Analyzing 3,000 answers across 14 languages, researchers found widespread problems including false facts, outdated information, and poor sourcing, with Gemini showing the highest rate of attribution errors at 72%.
この調査は,18カ国の公益メディア22社を巻き込んだもので,若手ユーザーがAIにニュースに依存し、公共の信託と民主的な婚約のリスクが高まるに当たり、ますます不安が高まっていることに注目している。
The study, involving 22 public-service media outlets from 18 countries, highlights growing concerns as younger users increasingly rely on AI for news, raising risks to public trust and democratic engagement.
中には,現在進行中の課題を認めている企業もあるが,同報告書はAIの正確さと酸性化について,より大きな責任と改善を要している.
While some companies acknowledge ongoing challenges, the report calls for greater accountability and improvements in AI accuracy and sourcing.