AI/機械学習(ML)の活用がビジネスに浸透し、データを収集して特徴量を抽出する仕組みや、継続的なトレーニングで精度を高めるためのシステムが整備されてきた。一方で顕在化してきたのが、「この結果がどのように導き出されたのか」を説明できない状態で運用を行う「ブラックボックス問題」だ。
高い精度の結果が出ても理由や仕組みが説明できないこうした状態では、利用者の信頼を得ることは難しく、AI/MLの導入を妨げる一因になっている。そこで注目したいのが、データサイエンティストやMLエンジニア、エンドユーザー、コンプライアンス担当など、各関係者が求める説明性を担保する、一連のツールとフレームワークだ。
これによりユーザーは、各特徴量がモデルの予測結果に対してどの程度貢献したかを示す「特徴アトリビューション」を生成可能になるため、画像や表形式、テキストなど多様なモデルの予測結果を直感的にイメージできるようになるという。本資料で、その詳細をぜひ確認してほしい。