社員が無許可のAIを使用すると、承認されたツールよりもデータ違反が多い。 研究結果。
Unauthorized AI use by employees causes more data breaches than approved tools, study finds.
「シャドウAI」として知られる無許可AIツールを使用した社員は,データの流出や知的財産の窃盗の危険に際して,事業を危険にさらしている.
Employees using unauthorized AI tools, known as shadow AI, are putting businesses at risk of data breaches and intellectual property theft.
IBMとPonmon研究所の報告書によると,20パーセントの企業がシャドウAIによるデータ侵害を経験しており,承認されたAIツールの13パーセントに該当する.
According to a report by IBM and the Ponemon Institute, 20% of companies have experienced data breaches due to shadow AI, compared to 13% for approved AI tools.
これらのリスクを軽減するには,企業はAI行政を確立し,無信用な政策を採用し,無許可のAI使用の危険性について社員に教育しなければならない.
To mitigate these risks, companies should establish AI governance, adopt a zero-trust approach, and educate employees about the dangers of unauthorized AI use.