IT製品導入に関する技術資料を多数掲載 ホワイトペーパーダウンロードセンター
  • @IT
  • ITmedia エンタープライズ
  • ITmedia マーケティング
  • TechTarget
  • キーマンズネット

スーパーマイクロ株式会社

製品資料

スーパーマイクロ株式会社

GPU単体能力だけではない、AI処理を高速化するハードウェア選定のポイント

GPUはAI処理における重要要素の1つだが、単体で成果を上げられるわけではない。AI処理の観点からGPUの真価を発揮するためのハードウェア構成について解説するとともに、NVIDIAの認証も取得する有力なGPUサーバの一例を紹介する。

コンテンツ情報
公開日 2021/09/01 フォーマット PDF 種類

製品資料

ページ数・視聴時間 2ページ ファイルサイズ 599KB
要約
 AI/ディープラーニング(DL)の処理で必須となるのがGPUである。CPUの数十倍から数百倍という並列演算速度を誇る一方で、実際に高速処理を実現するには、GPUだけでなく、CPU、メインメモリ、ストレージがバランス良く構成されたGPUサーバが必要となる。

 これに加えて重要なのが、CPU、メモリとGPU間を相互接続する伝送路であるインターコネクトの性能だ。AI/DLアプリケーションの性能は、CPU/メインメモリとGPUをつなぐPCIeのトポロジーと帯域に左右され、さらに、DLトレーニング用途には、CPUやメインメモリを介さずGPU間だけで高速に相互データ転送を実現するインターコネクトが必要であり、これを搭載したサーバ選定が前提となる。

 本資料では、HPCやAI/DL活用向けのGPUサーバを紹介している。開発用途に最適なGPUワークステーションを筆頭に、最大で毎秒600GBものGPUペア間通信を可能とする、本格的なAI/DL向けの専用機など、NVIDIA-Certified Systemsの認証を取得し、現代のAI/DLワークロードに対応した豊富な製品を、自社の運用に適した製品選定の参考にしてほしい。