コンテンツ情報
公開日 |
2020/02/14 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
13ページ |
ファイルサイズ |
526KB
|
要約
世界中の企業が戦略的な理由からビッグデータプロジェクトを進める一方、データ品質に関する問題が浮上している。Forbes Insightsによる最新のレポートでは、CEOの84%が意思決定の際に利用するデータ品質に懸念を持っており、データブローカーについての調査では、顧客データの71%が不正確であることが判明している。
こうした中、多くの企業が解決策として注目しているのが、データレイクだ。しかし、データ品質の小さなエラーでもインサイトの精度や一貫性を損なう恐れがあることを考慮すると、リポジトリにデータを取り込むだけでなく、ある時点でクレンジングと構造化は必ず行わなければならない。そこで導入を検討したいのが、機械学習と人工知能を使用し、精度の低いデータの検出/修正を自動化するデータ管理ソリューションだ。
また、その他にも、統一ルールを採用してユニバーサルに作業を行う、データのプロファイリングと追跡を容易にするなど、品質確保のために企業がやるべきことは多い。本資料では、ビッグデータ活用にデータ品質が重要な理由や粗悪なデータの根本原因など、データ品質を高める上で知っておきたい4つのポイントを詳しく解説する。