組み込みソフトウェア開発においても、AI(人工知能)/ML(機械学習)の活用は自律的かつ効率的なシステム運用を可能にする革新的技術の原動力となっている。一方、安全性が厳しく求められるセーフティクリティカルな組み込みシステムにAI/MLを導入する際は、リソースの制約や非決定的な挙動、コンプライアンス対応といった特有の課題が存在する。
組み込みシステムは電力やメモリ、演算能力に制約があるため、大きな処理能力を必要とするAI/MLの実装は容易ではない。さらにセーフティクリティカルなシステムでは高い正確性と信頼性が求められるが、AI/MLモデルの中でも特にニューラルネットワークは確率的に動作する特性があり、常に一貫した挙動や予測可能な出力が得られるとは限らない。
本資料では、組み込みシステムにAI/MLを導入する際に直面する課題を解説した上で、モデルの凍結や量子化による挙動を安定化させ、静的解析や単体テストを通じた検証により安全性と信頼性を確保する方法を紹介する。またISO 26262やIEC 62304などの規格への対応を踏まえた、セーフティクリティカルなシステムに求められるソフトウェア検証の在り方を紹介する。