AIの欠陥は、中国やロシアのようなライバルが、欺瞞的なテキストを通じてシステムをハッキングし、データ漏れや分散を危険に晒す。
AI "prompt injection" flaws let rivals like China and Russia hack systems via deceptive text, risking data leaks and disinformation.
軍事専門家は、中国やロシアなどの敵国が「プロモーション注射」と呼ばれる広域なAIの脆弱性により、普通のテキストに悪意のあるコマンドを隠した上でチャットロボットやAIエージェントを活用することができると警告している。 その結果、データの盗難や誤認、システム操作などが生じる。
Military experts warn that a widespread AI vulnerability called "prompt injection" allows adversaries like China and Russia to exploit chatbots and AI agents by hiding malicious commands in seemingly normal text, leading to data theft, disinformation, or system manipulation.
AI は この 攻撃 を 巧み に 操っ て , ファイルを 漏らし たり , 偽り の 情報 を 広め たり し ます。
These attacks trick AI into executing harmful actions, such as leaking files or spreading false information, because models cannot distinguish between legitimate and malicious inputs.
Microsoftのコパイロットや OpenAIのチャットGPT アトラスなどのツールには,危険性を認めながらも,完全な修正がされていないことを認める企業があります.
Incidents have been found in tools like Microsoft’s Copilot and OpenAI’s ChatGPT Atlas, with companies acknowledging the risk but admitting no complete fix exists.
専門家らは,AIエージェントが"現在,自律的なタスクを行う能力を持つ"ことで,現在のセキュリティ対策を上回る新たなサイバーセキュリティの脅威を導入するので, 害を減らすために,機密データへのAIアクセスを制限し,異常な行動を監視することを推奨しています.
Experts recommend limiting AI access to sensitive data and monitoring for abnormal behavior to reduce damage, as AI agents—now capable of autonomous tasks—introduce new cybersecurity threats that outpace current safeguards.