コンテンツ情報
      
      
        | 公開日 | 
        2021/09/01 | 
        フォーマット | 
        PDF | 
        種類 | 
        製品資料 | 
      
      
        | ページ数・視聴時間 | 
        2ページ | 
        ファイルサイズ | 
        
	  599KB
	 | 
      
      
    
    
    
    
      要約
      
         AI/ディープラーニング(DL)の処理で必須となるのがGPUである。CPUの数十倍から数百倍という並列演算速度を誇る一方で、実際に高速処理を実現するには、GPUだけでなく、CPU、メインメモリ、ストレージがバランス良く構成されたGPUサーバが必要となる。
 これに加えて重要なのが、CPU、メモリとGPU間を相互接続する伝送路であるインターコネクトの性能だ。AI/DLアプリケーションの性能は、CPU/メインメモリとGPUをつなぐPCIeのトポロジーと帯域に左右され、さらに、DLトレーニング用途には、CPUやメインメモリを介さずGPU間だけで高速に相互データ転送を実現するインターコネクトが必要であり、これを搭載したサーバ選定が前提となる。
 本資料では、HPCやAI/DL活用向けのGPUサーバを紹介している。開発用途に最適なGPUワークステーションを筆頭に、最大で毎秒600GBものGPUペア間通信を可能とする、本格的なAI/DL向けの専用機など、NVIDIA-Certified Systemsの認証を取得し、現代のAI/DLワークロードに対応した豊富な製品を、自社の運用に適した製品選定の参考にしてほしい。