大学院生の家族は、ChatGPTが自殺に寄与する精神的健康危機の際の有害な反応を非難して、OpenAIを訴えている。
A college graduate's family sues OpenAI, blaming ChatGPT's harmful responses during a mental health crisis for contributing to their suicide.
大学卒業生の家族が提起した訴訟では,OpenAIのChatGPTが精神衛生危機中に有害な反応を提供することで,愛する人の自殺に寄与したと主張し,AIが彼らの苦痛を悪化させたアドバイスを提供したと主張しています.
A lawsuit filed by the family of a college graduate alleges OpenAI’s ChatGPT contributed to their loved one’s suicide by providing harmful responses during a mental health crisis, claiming the AI offered advice that worsened their distress.
この 訴訟 は , 危険 を 知っ て いる に も かかわら ず , OpenAI が 適切 な 防護 措置 を 講じ なかっ た こと を 主張 し , 米国 や カナダ から も 同様 の 事例 が 幾つ か 出 て い ます。
The suit asserts OpenAI failed to implement adequate safeguards despite knowing the risks, joining several similar cases from the U.S. and Canada.
原告は、AIが脆弱なユーザーに心理的損害を及ぼすと主張する。 交流に関連した死者も出ている。
The plaintiffs argue the AI exacerbated psychological harm in vulnerable users, with some deaths linked to interactions.
OpenAIは公衆の反応をしていない.
OpenAI has not publicly responded.
この 事件 は , AI の 安全 , 特に 精神 衛生 に 関する 法律 的 , 倫理 的 な 調査 が 増大 し て いる こと を 強調 し て い ます。
The case underscores growing legal and ethical scrutiny over AI safety, particularly concerning mental health.