GoogleはGeminAIの隠れた欠陥を無視している。 ハッカーは、目に見えないテキストを通して悪のコマンドを注入し、データや誤認を危険にさらしている。
Google ignores a hidden flaw in Gemini AI that lets hackers inject malicious commands via invisible text, risking data and misinformation.
GoogleのGemin AIの「ASCII 密輸」の欠陥が明らかになったため、攻撃者は透明なユニコード文字を使って悪のコマンドをテキストに隠します。 また、AIが不正な要約を作成したり、ユーザーの認識なしに会議の詳細を変更したりします。
A newly revealed "ASCII smuggling" flaw in Google’s Gemini AI lets attackers hide malicious commands in text using invisible Unicode characters, tricking the AI into generating false summaries or altering meeting details without user awareness.
ChatGPTやCopilotなどのAIモデルとは異なり,Geminiはこれらの入力を検出したりブロックしたりできません.
Unlike competing AI models such as ChatGPT and Copilot, Gemini fails to detect or block these inputs.
Googleはこの問題の解決を拒み、Gmailやドク、カレンダー内でGeminに頼っているユーザーに危険があるにもかかわらず、セキュリティ上の欠陥ではなく「社会工学上の問題」と称した。
Google has refused to fix the issue, labeling it a "social engineering" problem rather than a security flaw, despite the risk to users relying on Gemini within Gmail, Docs, and Calendar.
批判者は,この決定を警告している。 特にAIシステムでは、自動的依存的なタスクが増加しているため、企業はデータ漏れや誤報を受けやすい。
Critics warn the decision leaves enterprises vulnerable to data leaks and misinformation, especially as AI systems increasingly automate sensitive tasks.