AIのチャットロボットは虚偽の判例を作成しており,書きかけや助言にエラーを生じ,ベイエリアの弁護人の間で警報を鳴らしている.
AI chatbots are generating false legal precedents, causing errors in filings and advice, raising alarms among Bay Area lawyers.
人工知能による 幻覚の波は ベイエリアの 弁護士を動揺させ AIのチャットロボットが 虚偽の判例を 作っています
A wave of artificial intelligence-generated hallucinations has unsettled Bay Area lawyers, who report that AI chatbots are producing false legal precedents, fabricated case details, and misleading citations.
これらのエラーは,訓練データに欠陥があり,出力の過度な自信が生じたため,不正な書類や顧客の誤認等を含んだ重大な結果を招いた.
These errors, stemming from flawed training data and overconfidence in outputs, have led to serious consequences, including incorrect filings and client misadvice.
ハードルは,現在より厳格な審査プロトコルを実施しているが,この事件は,高額取引業におけるAIの信頼性に関する懸念が高まることを強調する.
Firms are now implementing stricter review protocols, but the incidents highlight growing concerns about AI reliability in high-stakes legal work.