AIの急速な普及がさまざまな業界に変革をもたらしているが、そうしたAIワークロードの実行には、現在の世界の電力網では維持できないほどのデータセンターの処理能力や電力が必要になってしまう。そこで注目したいアプローチが、既にAIトレーニング済みのモデルを新しいデータに適用して予測を行う「AI推論」だ。物体検出、顔認識、コンテンツのおすすめと生成、言語の翻訳といった主要なワークロードに対応している上、AIトレーニングほどリソースを消費せず、時間やコストも抑えられる。
そんなAI推論においてCPUが果たす役割は大きい。現在、AI推論ワークロードの大半がCPUで実行されている。CPUの設計は電力効率が高く、AI推論ワークロードの効率的な処理、電力やコストの削減をもたらしてくれるのだ。
本資料では、生成AIを支える大規模言語モデルから、小型・ドメイン特化型のAIモデルまで、進化するAIワークロードの要求に対応可能な種類のCPUを紹介する。データセンターとクラウド、モバイル、IoT、開発者といった視点から求められるCPUの在り方も確認できるので、ぜひ参考にしてほしい。