生成AIの活用が進む中、その中核技術であるLLM(大規模言語モデル)は、多様なセキュリティリスクに直面している。プロンプトインジェクション、データポイズニング、不正出力の誘導、DDoS(分散型サービス拒否)攻撃など、LLMを標的とする攻撃手法は多岐にわたる。
こうした脅威に対し、ソフトウェアのセキュリティ向上を活動目的とする非営利組織Open Worldwide Application Security Project(OWASP)は「LLMの10大脅威」として注意すべきリスクを整理している。本稿はその内容をもとにLLMに対する主要な攻撃手法と影響を詳しく解説し、それらのリスクを軽減するための対策を紹介する。生成AIの安全な運用に向けたセキュリティ対策を考える上で参考にしてほしい。