コンテンツ情報
公開日 |
2016/12/13 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
5ページ |
ファイルサイズ |
544KB
|
要約
過去のデータは累積し、ビッグデータ到来で新たなデータは急増、そのバックアップの抑制には「重複排除」が有効だ。この重複排除にも新旧の技術が存在し、古い技術では大量データに耐えられず、ネットワークを圧迫し、バックアップが終わらない事態も招きかねない。
これら重複排除技術の種類を解説しつつ、ストレージと転送データの容量を削減でき、増え続けるビッグデータを処理できるバックアップ体制の考え方を示す。
もちろん今の時代に沿った、仮想サーバのボトルネック配慮や、クラウドやテープへの転送、他の技術との比較ポイントなどを詳しく見ていこう。