シカゴの裁判官は,入国審査員がAIの強制使用を警告し,不正行為や信託の侵害の危険を報告している.
A Chicago judge warns immigration agents' use of AI in force reports risks inaccuracies and erodes trust.
シカゴの連邦判事は,ChatGPTなどのAIツールを使って,AIの生み出した物語とボディカメラの映像との間のデフレを提起し,入国管理局に対して警報を発した.
A federal judge in Chicago has raised alarms over immigration agents using AI tools like ChatGPT to draft use-of-force reports, citing discrepancies between AI-generated narratives and body camera footage.
脚注で,裁判官サラ・エリスは,最小限の入力に基づく報告の信頼性を疑問視し,この慣習は不正確さの危険性,法的基準を損なう,そして公衆の信頼を損なうと警告しました.
In a footnote, Judge Sara Ellis questioned the reliability of reports based on minimal input, warning the practice risks inaccuracies, undermines legal standards, and erodes public trust.
専門家によると AIは 役員の視点を歪め 誤解を招くアカウントを作成し 公開プラットフォームを使用すると 機密データを暴露する可能性があるという.
Experts say AI can distort officer perspectives, create misleading accounts, and expose sensitive data if public platforms are used.
国土安全保障省はコメントをしていないし,明確な連邦政策も存在しない.
The Department of Homeland Security has not commented, and no clear federal policies exist.
現在,AIが生成したコンテンツのラベル付けを要する州もあるが,広域の防護措置は欠如していない.
Some states now require labeling of AI-generated content, but widespread safeguards remain absent.