Reddit's AIは、無傷の投稿から危険な選択肢を示唆し、より優れた監督を求めるユーザーを惑わせた。
Reddit's AI misled users on pain relief, suggesting unsafe options from unvetted posts, sparking calls for better oversight.
RedditのAIツール、Redditの回答は、ヒロインやクラトムを痛みの救済策として提案し、医療フォーラムの未公開のユーザー投稿から引用した。
Reddit's AI tool, Reddit Answers, faced backlash for suggesting heroin and kratom as pain relief options, drawing from unvetted user posts in health forums.
AIは医療ガイドラインと矛盾する反応を生み出した。
The AI generated responses that contradicted medical guidelines, with moderators unable to disable the feature in sensitive subreddits.
この事件は、フィルタされていないAIのトレーニングデータと監督の欠如について警鐘を鳴らし,選択肢の確保や人間調査など,より優れた保護を要請した.
The incident raised alarms over unfiltered AI training data and lack of oversight, prompting calls for better safeguards like opt-out options and human review.
Redditは,医療社会におけるツールの視認率を低下させたが,より強い安全対策を実施するよう圧力を受けている.
Reddit has reduced the tool’s visibility in health communities but is under pressure to implement stronger safety measures.
このエピソードは,医療などの高等医療分野におけるAIの誤診の継続的な危険性を強調している.
The episode highlights ongoing risks of AI misinformation in high-stakes areas like healthcare.