大規模なAIとアナリティクスシステムの構築が容易でないのは事実である一方、それを必要以上に難しくしてしまう原因が“誤った思い込み”にあることはあまり知られていない。例えば「AIとアナリティクスは別個のシステム(クラスタ)で実行すべきである」や「本番環境で大規模なプロジェクトを進めることは高くつく」といった思い込みに縛られることで、設計の選択肢が制限され、不必要な妥協を強要される羽目になる。
本来、スケーラビリティや可用性、アジリティといった要素のトレードオフに悩む必要はないはずだ。そうした問題が発生する手法は、避けることができる。実際、さまざまな分野の企業が、規模とスケーラビリティの課題に対応できるよう工夫されたデータインフラを構築し、自らの業務スタイルを変革してきた。
本資料は、データインフラの大規模化を実現するためのポイントやプロセスを、多くの企業の本番稼働事例を交えて教訓とともに解説している。併せて、最適なデータインフラの構築を支援するデータファブリックソリューションも紹介しているので、参考にしてほしい。
Brought to you by HPE and Intel®