ビッグデータの本質は、これまで注目してこなかったデータをトライ&エラーを繰り返しつつ集計・分析してみることだが、システム構築の観点から見ると、その規模が本質的に決定できない難しさがある。ビッグデータ分析のために高価なDWHアプライアンス製品を採用したとしても、それを将来使い切ることができるかどうか、導入時には誰にもわからないケースが多い。
サーバの保守切れやリース満了間近になってからのシステム見直しも厄介だ。コストパフォーマンスの良さと、変化に強いシステムを構築するためにクラウドを選択するものの、サービスレベルやセキュリティの面において要件に必ずしも応えられるとは限らない。
段階的なシステムの導入や見直しは大きな課題だ。本ホワイトペーパーでは様々なシーンでの段階的なシステム構築の勘所を解説する。これらはITの災害対策にも有効な視点であり、利益を生み出すヒントでもある。