コンテンツ情報
公開日 |
2013/09/20 |
フォーマット |
PDF |
種類 |
技術文書・技術解説 |
ページ数・視聴時間 |
12ページ |
ファイルサイズ |
864KB
|
要約
昨今、多くの企業がビッグデータ分析に取り組んでいる。だが、BIやDWHなどに多額の投資をしていながら、期待する成果が得られていないケースが多い。
この原因として、分析基盤の整備方法や分析スキルの問題も挙げられる。だがそれ以前に疑うべきは「データの信頼性」だ。例えば、各販売拠点の売り上げを分析するとして、品目マスターは同じモノを同じモノとして扱えるように管理できているだろうか? 各部門・拠点間で取引先などのマスターデータは共通化できているだろうか? システムがサイロ化しているために、複数のソースデータを統合する際、何らかの欠落が起こったりしてはいないだろうか?
いくら分析基盤と人材を整備しても、質の低いデータからは質の低い分析結果しか出てこない。仮に「ビールと紙おむつ」のような相関が見つかっても、その分析結果を現場で適用することができずに、せっかくのデータ収集・分析コストがまるごと無駄になってしまう。では日々データが増え続ける中で確実にデータの信頼性を担保し、短期間で分析ROIを高めるためにはどうすればよいのだろうか? その秘策を紹介する。