FINRAは、偏向、詐欺、チェックされていないシステム等の危険によりAIの監督を強化するよう仲介業者に警告している。
FINRA warns broker-dealers to strengthen AI oversight due to risks like bias, scams, and unchecked systems.
準拠計画のために早期に公表されたFINRAの2026年規制監督報告書は,生成AIをトップリスクとして特定し,不正確な出力,バイアス,監視を超えて行動する自律的エージェントなどの危険性について警告しています.
FINRA’s 2026 Regulatory Oversight Report, released early for compliance planning, identifies generative AI as a top risk, warning of dangers like inaccurate outputs, bias, and autonomous agents acting beyond oversight.
このレポートでは,文書作成や市場分析などの作業でブローカーディーラーでAIの利用が増加していることを強調しているが,監視されていないシステム,第三者ベンダーのリスク,ディープフェイクやフィッシングなどのAIによる詐欺に対して警告している.
The report highlights growing use of AI in broker-dealers for tasks like document drafting and market analysis, but cautions against unmonitored systems, third-party vendor risks, and AI-facilitated scams such as deepfakes and phishing.
また , サイバー 攻撃 , 長老 に よる 詐欺 , お金 の 搾取 , 欠陥 の ある 製品 の 勧告 など , 継続 的 な 懸念 を 強調 し , 企業 に 対し て は , 統制 を 強化 し , 記録 を つけ , 投資 家 を 保護 する よう 勧め て い ます。
It also stresses ongoing concerns including cyber threats, elder fraud, money laundering, and flawed product recommendations, urging firms to strengthen governance, recordkeeping, and supervision to protect investors.