製品資料
株式会社データドック
HPC/AI活用に不可欠なGPUサーバ、インフラ設計でチェックすべき3つのポイント
コンテンツ情報
公開日 |
2020/01/06 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
5ページ |
ファイルサイズ |
1.11MB
|
要約
HPC/AI/ディープラーニングなどの普及により、GPUサーバの利用が広がっている。従来のCPU搭載サーバに比べ100倍もの高速な演算処理が可能なGPUサーバだが、導入の際のインフラ設計においては、これまでとは異なるポイントを確認する必要がある。
それが、「電力」「熱」「奥行き」の3つだ。GPUは1つのチップに最大数千の計算コアを持っており、同時並行処理を行うことで高い計算処理性能を実現するため、大量の電力が必要となる。それにより、自ずとサーバの排熱量も多くなるため、冷却能力も重要となる。さらに、処理速度を高めるためサーバの奥行きが長くなっていることから、扉が閉まるかなど、ラックサイズには注意が必要だ。
本資料では、これら3つのポイントについて詳しく解説する。あわせて、GPUサーバの設置に最適な新潟・長岡のデータセンターについて、一般的なデータセンターと比較しながら紹介する。高密度/高負荷対応なのに加え、運営会社は「NVIDIA DGX-Ready Data Center プログラム」パートナー企業として認定されており、その品質はお墨付きだ。