製品資料
インテル株式会社
ディープラーニングには「GPU」か「FPGA」か? 画像処理の高速化で大きな差
コンテンツ情報
公開日 |
2017/10/02 |
フォーマット |
PDF |
種類 |
製品資料 |
ページ数・視聴時間 |
6ページ |
ファイルサイズ |
393KB
|
要約
機械学習に大きな進化をもたらした「ディープラーニング」。その中核を成すニューラルネットワークの技術には、動画などの処理に優れた再帰型(RNN)と静止画などの処理に優れた畳み込み型(CNN)がある。近年、機械学習の分野でGPU(Graphics Processing Unit)の導入が進んでいる背景には、後者であるCNNの並列計算をGPUが得意とすることが挙げられる。
しかし、GPUの大量搭載は、CNNのパフォーマンスを向上させる一方で、巨大な電力消費が問題となる。そこで注目され始めたのが、電力効率の面でも優れた特性を持つ「FPGA(Field Programmable Gate Array)」だ。既に「AlexNet」や「GoogLeNet」のベンチマークアルゴリズムを、FPGAに最適化して実装した製品も登場している。
本資料では、CNNアルゴリズムに基づく画像の処理と分類に対して、省電力性に優れたFPGAが、GPUなどのHPCデバイスと比べてどれだけのパフォーマンスを発揮するのかを詳細に解説する。FPGAでOpenCLプラットフォームを利用することで実現可能なDLA(Deep Learning Accelerator)アーキテクチャの実力をぜひ確認してもらいたい。