AIの養子縁組は世界的に増加しているが,支配力の弱さはデータセキュリティを危険にさらす.
AI adoption rises globally, but weak governance risks data security.
生産性AIの採用は南アフリカや世界的に急増しており,それを利用する企業の67%が 2024年の45%から増加している.しかし,公式AI戦略は14%しかなく,32%は非公式にツールを使用しており,データ漏洩やモデル操作などのセキュリティリスクを生み出している.
Generative AI adoption is surging in South Africa and globally, with 67% of companies using it—up from 45% in 2024—yet only 14% have formal AI strategies, and 32% use tools unofficially, creating security risks like data leakage and model manipulation.
サイバーセキュリティ専門家は,速やかに規模を拡大し,非決定的操作をすることができるAIエージェントは,行政の枠組みを持つ組織の10%に限る,適切な個人情報管理及び監督を欠いていると警告している.
Cybersecurity experts warn that AI agents, which can scale rapidly and operate non-deterministically, lack proper identity management and oversight, with only 10% of organizations having governance frameworks.
サイバーリスクをデータレイヤに 移行させています 従来のセキュリティモデルに挑戦します
This shift is moving cyber risks from infrastructure to the data layer, challenging traditional security models.
チェックポイントやオクタのような企業は セキュリティーに配慮したAIの実践を推進しています 識別制御や即時アクセスやEUAI法のような規制に 合わせたガバナンスフレームワークなどです
Firms like Check Point and Okta are promoting secure AI practices, including identity controls, just-in-time access, and governance frameworks aligned with regulations like the EU AI Act.
MSPは,AIが標準防衛装置の通行を阻害する仕事の流れを踏まえ,より強いデータ管理,スタッフの育成,テロ対策の推進に関する助言を要するとともに,説明責任の増加に直面している.
MSPs face growing accountability as AI-driven workflows bypass standard defenses, requiring stronger data governance, staff training, and advisory roles to manage evolving threats.