ビッグデータのソースとして、日々生成される2500兆バイトといわれるインターネット上のデータに目を奪われ、メインフレームデータに注目しているケースはまだ少ない。世界の全構造化データの約70%が保管されているメインフレームデータは、ビッグデータ分析には不可欠な要素だ。その一方で、CPU使用量やストレージコストの問題から活用段階まで至らないのが現状だ。
この問題を解決するには、メインフレームデータを高い処理機能と柔軟性を備えた新しいデータ環境にオフロードする必要がある。しかし、移行にはデータの事前処理をはじめとした、「統合への長く複雑な工程」が存在する。当然、そのための「専門スキル」も必要になる上、移行先との「セキュリティギャップ」や、テラバイト単位のデータ管理にかかる「コスト」など、いくつもの課題が山積することになる。
そこで本資料では、これらの4つの課題とその対処法となるベストプラクティスについて解説するとともに、メインフレームと新環境とのギャップ解消に有効なソリューションを紹介する。あらゆる企業データの価値を最大化する同ソリューションの実力を、ぜひ確認してほしい。