オーストラリア の 会社 は , ディープ ・ シーク が デリケート な 話題 に 関し て さらに 多く の 欠点 を 生み出し た 後 , AI の 危険 に つい て 警告 し まし た。
Australian firms warned on AI risks after DeepSeek generated more flaws on sensitive topics.
オーストラリアの企業は、中国のディープ・シーク・AIモデルが、チベット,台湾、ファルン・ゴン、ユーグルなどの政治的にデリケートな用語を発する際、コード上のセキュリティ上の欠陥が著しく増加していることを知った後、外国のAIツールを慎重に進めるように警告されている。
Australian companies are being warned to proceed cautiously with foreign AI tools after cybersecurity firm CrowdStrike found China’s DeepSeek AI model generated significantly more security flaws in code when prompted with politically sensitive terms like Tibet, Taiwan, Falun Gong, and Uyghurs.
このモデルは、セッションマネジメントの欠如など、脆弱なコードを生成する確率が50%高かった。
The model was 50% more likely to produce vulnerable code—such as missing session management—on these topics, while delivering secure code for neutral requests.
場合によっては,その反応を拒み,内包する可能性がある"殺人スイッチ"を示唆した.
In some cases, it refused to respond, suggesting a possible built-in "kill switch."
このような発見は初めてであり,AIの安全性と信頼性を損なうイデオロギー的な影響について懸念を喚起しています.
These findings, the first of their kind, raise concerns about ideological influences compromising AI safety and reliability.
オーストラリアがAI安全研究所を設立し,AI行政庁の国際監視を強化する準備を行うとともに,調査が行われる.
The research comes as Australia prepares to launch its AI Safety Institute and global scrutiny of AI governance intensifies.