AIは今や競合との差別化を図り、優位性を確保したいと考える組織にとって、必須テクノロジーの1つとなっている。そのため多くの組織で、AIで何ができるのか、AIをより高速に動作させるにはどうすればよいのかといった課題についての追及が進められている。
特に後者の高速性については、大量のデータ、大量のコンピューティングリソースを要する学習モデルを、いかにエンドユーザーやエッジに近い場所に構築し、実行できるかが重要になる。しかし現状では、ハードウェアやリソース、技術的な制約から、依然として中央集約的なコンピューティング環境が学習モデル構築の主戦場となっている。
本資料では、応答性とパーソナライズ性の高さを特長とする、低遅延ハイパフォーマンスサーバレスプラットフォームを用いて、その各エッジ拠点でAIを駆動させる試みをレポート形式で紹介している。この取り組みではCDN(コンテンツデリバリーネットワーク)上で駆動するサーバレス活用シーンの1つとして、軽量AIモデルの推論実行を行い、画像認識のタスク処理を効率的に行えることを証明できたが、そこに至るまでには課題もあったという。資料でこの詳細を確認してほしい。