コンテンツ情報
公開日 |
2021/10/29 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
6ページ |
ファイルサイズ |
7.62MB
|
要約
AI開発者は、小規模なGPUリソースでまかなえるアプリケーションから、複数のGPUリソースを必要とするアプリケーションまで、さまざまな要件に対応しなければならない。そのためには、多種多様なAIワ―クロードを効率的に処理できる環境の整備が欠かせない。
そこで注目したいのが、AIワ―クロードに最適な、GPU搭載の高度なサーバシステムの活用である。前述したようにAI開発者は、AIモデルとデータの容量に応じて、GPUの一部、または複数のGPUを必要とする場合がある。このGPUリソースを複数の仮想マシンに割り当てることができれば、独立した個別のサーバで管理するよりもはるかに簡単で柔軟な運用が可能となる。
本コンテンツでは、仮想GPUとLinux仮想化ソリューションによって、複数の開発者でGPUリソースの共有が可能になる、GPUサーバシステムを紹介する。CPUの柔軟な選択肢により、費用対効果を最適化できる他、AIトレーニングはもちろん、小規模な推論ジョブなど、用途に合わせたサーバを選択できるので、ぜひ目を通してほしい。