AIモデルの開発は、初期費用を抑えつつ高性能な計算リソースを利用でき、柔軟なスケーラビリティや最新技術を活用できる点から、クラウド環境で行われるケースが一般的だ。一方で、データのプライバシーやセキュリティ、カスタマイズ面の制約から、オンプレミス環境でAIワークロードを実行したいというニーズも根強い。オンプレミスは初期費用こそ必要になるものの、クラウド利用時の継続的なコストや運用の複雑さを抑えられるというメリットもある。
そこで本資料では、AIワークロードに特化した高性能ワークステーションを紹介する。本製品は、NVIDIAのGrace Blackwellアーキテクチャに基づくAI向けSoC(System on a Chip)「GB10」を搭載し、1ペタフロップ(1000TFLOPS)のFP4コンピューティング性能を実現。これにより、最大2000億パラメータの大規模モデルをローカル環境で実行できる。
さらに、超低レイテンシ通信に対応したConnectX-7 Smart NICを使用し、もう1台の本ワークステーションを追加接続することで、最大4000億パラメータ規模のモデルの実行も可能となる。資料では、これらの性能や構成例に加え、AI開発に適した周辺機器についても紹介している。