ある予測によれば、2028年までに生成AIへの投資額が6320億ドルに達するという。AI導入は急速に進んでおり、それに伴ってセキュリティリスクが深刻化している。
AIに関するセキュリティ対策は、モデルそのものの保護にとどまらず、AIライフサイクルのあらゆる段階で扱われる情報全体を対象とする必要がある。例えば大規模言語モデル(LLM)は、大量の情報を処理・統合する能力そのものがリスクになる可能性があるが、LLMの動作はブラックボックスであり、その出力を予測したり制御したりすることは困難だ。また検索拡張生成(RAG)は外部データを取り込む仕組みだが、そこに脆弱性が存在する。さらにAIモデルのトレーニングには、データポイズニング攻撃の危険性が潜んでいる。
本資料ではこの他にもさまざまなリスクを挙げた上で、AIの大規模導入に欠かせないセキュリティフレームワークを提唱する。さらに、このフレームワークの導入に役立つ4つのステップを示し、それぞれで取るべき対策を解説する。加えて、データセキュリティとAIガバナンスの双方を管理できる統合プラットフォームのメリットを紹介する。