コンテンツ情報
公開日 |
2021/09/01 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
2ページ |
ファイルサイズ |
599KB
|
要約
AI/ディープラーニング(DL)の処理で必須となるのがGPUである。CPUの数十倍から数百倍という並列演算速度を誇る一方で、実際に高速処理を実現するには、GPUだけでなく、CPU、メインメモリ、ストレージがバランス良く構成されたGPUサーバが必要となる。
これに加えて重要なのが、CPU、メモリとGPU間を相互接続する伝送路であるインターコネクトの性能だ。AI/DLアプリケーションの性能は、CPU/メインメモリとGPUをつなぐPCIeのトポロジーと帯域に左右され、さらに、DLトレーニング用途には、CPUやメインメモリを介さずGPU間だけで高速に相互データ転送を実現するインターコネクトが必要であり、これを搭載したサーバ選定が前提となる。
本資料では、HPCやAI/DL活用向けのGPUサーバを紹介している。開発用途に最適なGPUワークステーションを筆頭に、最大で毎秒600GBものGPUペア間通信を可能とする、本格的なAI/DL向けの専用機など、NVIDIA-Certified Systemsの認証を取得し、現代のAI/DLワークロードに対応した豊富な製品を、自社の運用に適した製品選定の参考にしてほしい。