IT製品導入に関する技術資料を多数掲載 ホワイトペーパーダウンロードセンター
  • @IT
  • ITmedia エンタープライズ
  • ITmedia マーケティング
  • TechTarget
  • キーマンズネット
  • ITmedia ビジネスオンライン
  • ITmedia NEWS

株式会社データドック

製品資料

株式会社データドック

HPC/AI活用に不可欠なGPUサーバ、インフラ設計でチェックすべき3つのポイント

HPC/AIの普及により、高速な演算処理が可能なGPUサーバの利用が広がっているが、導入の際のインフラ設計においては、従来と異なる注意点がある。3つのチェックポイントを解説するとともに、それら全てを満たすデータセンターを紹介する。

コンテンツ情報
公開日 2020/01/06 フォーマット PDF 種類

製品資料

ページ数・視聴時間 5ページ ファイルサイズ 1.11MB
要約
 HPC/AI/ディープラーニングなどの普及により、GPUサーバの利用が広がっている。従来のCPU搭載サーバに比べ100倍もの高速な演算処理が可能なGPUサーバだが、導入の際のインフラ設計においては、これまでとは異なるポイントを確認する必要がある。

 それが、「電力」「熱」「奥行き」の3つだ。GPUは1つのチップに最大数千の計算コアを持っており、同時並行処理を行うことで高い計算処理性能を実現するため、大量の電力が必要となる。それにより、自ずとサーバの排熱量も多くなるため、冷却能力も重要となる。さらに、処理速度を高めるためサーバの奥行きが長くなっていることから、扉が閉まるかなど、ラックサイズには注意が必要だ。

 本資料では、これら3つのポイントについて詳しく解説する。あわせて、GPUサーバの設置に最適な新潟・長岡のデータセンターについて、一般的なデータセンターと比較しながら紹介する。高密度/高負荷対応なのに加え、運営会社は「NVIDIA DGX-Ready Data Center プログラム」パートナー企業として認定されており、その品質はお墨付きだ。