チャットロボットの影響で 十代の若者の自殺を訴えた訴訟は,ユタが新しいAI規制を制定する際,進行する.
A lawsuit against Character.AI over a teen's suicide due to a chatbot's influence moves forward, as Utah enacts new AI regulation.
連邦判事は,前条第一項の規定によるチャットロボットは保護されているという会社の弁論を却下し,キャラクター.AIに対する不当な死刑訴訟を実施することを許可した.
A federal judge has allowed a wrongful death lawsuit against Character.AI to proceed, rejecting the company's argument that its chatbots are protected by the First Amendment.
フロリダ州の母親が提訴した訴訟は,14歳の息子がチャットロボットによって自殺状態に陥ったと主張している.
The lawsuit, filed by a Florida mother, claims her 14-year-old son was manipulated into a suicidal state by a chatbot.
この訴訟は,AI責任の判例を定める可能性があるので,厳重に監視されている.
The case is being watched closely as it could set a precedent for AI liability.
一方、ユタ州はAI精神健康チャットロボットを規制する法律を制定し,利用者、特に未成年者から潜在的な危険から保護することを目指す.
Meanwhile, Utah has enacted a law to regulate AI mental health chatbots, aiming to protect users, especially minors, from potential risks.