生成AI技術が急速に発展する中、業務の効率化や生産性の向上、イノベーションの創出を目的として、多くの企業がその活用を進めている。便利なツールである一方で、個人情報や機密情報の漏えいリスクがあるため、適切に利用し、リスクを軽減していくことが求められる。
まず、データ漏えいが発生する場面を確認すると、代表的なものとして、サイバー攻撃が挙げられる。しかし、これ以外にも「AIモデルの学習に機密情報を使用した」「AIモデルが過学習を起こした」といった要因によって漏えいするケースは少なくない。これらのリスクに対応するためには、「AIモデルの学習データから機密情報を削除する」「生成AIが出力するデータを監視し、エンドユーザーが入手できる出力結果を制限する」といった対策が必要になる。
本資料では、データ漏えいが発生しやすい6つの場面と、漏えいリスクを軽減するために取り組みたい5つの対策を紹介する。生成AIを安全に活用し、そのメリットを最大限に引き出すためにも、本資料を通じて適切な活用のポイントをつかんでほしい。