コンテンツ情報
      
      
        | 公開日 | 2019/09/30 | フォーマット | PDF | 種類 | プレミアムコンテンツ | 
      
        | ページ数・視聴時間 | 4ページ | ファイルサイズ | 422KB | 
      
    
    
    
    
      要約
      
         Amazon.comは人工知能(AI)エンジン搭載の人材採用システムの開発を2017年に中止した。中止の理由は、採用の判断に女性就業希望者に対するバイアス(偏見)が含まれていたことだった。原因はAIシステムの機械学習に使っていたデータにあった。性別や人種へのバイアスが含まれた学習データ(教師データとも)を利用すると、AIシステムがそのバイアスに基づいた判断をするリスクがある。
 偏ったデータはときに役立つこともある。意図的にAIシステムの判断をゆがめる学習データを利用することで、かえってAIシステムの判断の正確性を高められる場合があるからだ。
 一般的にAIエンジンはブラックボックスになっている。バイアスの有無とその原因を判断することは困難だ。AIシステムのバイアスを解消しつつ、正確な判断ができるように学習させるにはどのようにすればよいのだろうか。TechTargetジャパンの人気連載を再構成した本資料では、AIシステムのバイアスを取り巻く現状とバイアスを軽減する方法について、事例を交えて説明する。