顧客体験の向上や従業員の生産性改善を目的に、AIアシスタントやAIエージェントを導入する企業が増えている。一方、運用開始後のAIアプリケーションは、プロンプトインジェクションやジェイルブレイクといった脅威の標的となることが多く、データの漏えいや有害な出力といったリスクが懸念されている。
そこで注目したいのが、ユーザー/AIアプリケーション/LLM間の脅威を検知およびブロックし、本番環境での安全なAI運用を支援する「AIガードレール」というアプローチだ。AIの振る舞いを保護し、社内外のポリシーとの整合性を確保しつつ、リスク管理に必要な可視性と制御を提供。ChatGPTやGemini、Microsoft 365 Copilotなどの使用状況を、監視/管理することも可能だ。
他にも、AIを活用したエンジンにより、過剰なフィルタリングを避けながら悪意のある入力をブロックできる他、プロンプトと応答に適用できる18種類以上の検知機能を備え、幅広い攻撃パターンや脆弱性も特定可能など、さまざまな効果が期待できる。本資料で、その全貌をぜひ確認してほしい。