前回、ディープラーニング(深層学習)の基本的な学習の仕組みを解説した。学習には、多くの演算が必要になり、パソコンやスマホのCPU(中央演算処理装置)だけでは時間がかかりすぎる。その問題をGPU(画像処理半導体)が解決した。AI(人工知能)の進化を支えるハードウエアについて解説する。

クロトレ大学教授。コンピューターの黎明(れいめい)期からAI一筋で研究をしてきた。最近ついに還暦を迎える。昔は鬼博士と呼ばれていたが、最近は丸くなってきた。

ある中堅ベンチャー企業で社長秘書をやっていたが、まったく新しい道を進もうと、クロトレ大学の助手として転職してきた。学生のころから数学や理科系は苦手。

前回までは、主にAIのアルゴリズム、ソフトウエア面の話をしたのだが、今回は、ハードウエアについて話をしようと思っているのじゃ。

ハードウエアって、要するにパソコンとかってことでしょ?

そう、コンピューターの物理的な装置のことじゃ。AIには、ハードウエアの進化が欠かせない。処理性能が足りなくて学習に何カ月もかかるのでは、実用的とはいえないのじゃ。

なるほどねー。

ギーガチャ。ワタシモハードウエアノナカマデス。

えっ、しゃべった!?
グラフィック用のチップをAIでも活用
現在の第3次AIブームは、2012年に行われた画像認識コンテスト「ILSVRC」で、ディープラーニングを活用したヒントン博士らのチームが、従来を大きく上回る認識精度を実現したことがきっかけとなった。このディープラーニングの学習では、米エヌビディアのGPUが非常に大きな役割を果たした。
GPUとは、グラフィックス・プロセッシング・ユニットの略。パソコンの中で、さまざまな計算をする頭脳といえばCPUだが、グラフィックスを描く処理をするときには、GPUがCPUを補助している。最近の映画やゲームを見ると分かるように、GPUや3Dグラフィックスの技術が向上したことで、とてもリアルな映像を実現できるようになった。
3Dグラフィックスの描画には、座標位置のほか光や影を表現するため、小数を含む数の計算を大量に繰り返す必要がある。小数点が固定されておらず、計算によって小数点以下の桁数が変わる計算のことを、浮動小数点演算と呼ぶ。GPUは、この浮動小数点演算を高速に実行することに特化した機能を持っている。
ここ数年のGPUは、CPU以上の進化を見せている。例えば、エヌビディアの最新GPU「GeForce RTX 2080 Ti」は、4352基ものコア(演算ユニット)を搭載し、浮動小数点演算性能は13.4テラ・フロップス(単精度)にも達する。1秒間に13兆4000万回の浮動小数点演算ができるということだ。
CPUでも、同様の浮動小数点演算ができる。ただ、パソコン向けCPUのコア数は、ハイエンドモデルでも8~10コアで、浮動小数点演算性能は1テラ・フロップスを超える程度だ。単純に比較すればGPUのほうが10倍以上高速となる。さらにタワー型の大型パソコンに複数のGPUを搭載すれば、さらに性能を高められる。
CPUは実行できる命令の種類が多いのでさまざまな用途に対応しやすく、状況に合わせて臨機応変な対応(条件分岐)をするのが得意だ。その一方で、GPUは対応できる命令は単純だが、一度に大量の演算を実行できるという特徴がある。
パソコンの中の役割を「会社の運営」に例えてみると、CPUは事業を統括するマネジメント層、GPUは現場の大量生産などを担う実務のプロフェッショナルといったところだろう。
さまざまな用途に活用できる汎用型のGPGPU
こうしたGPUの強力な演算能力を、グラフィックスの描画だけに使うのはもったいないということで、GPGPUという概念が生まれた。GPGPUは、ジェネラル・パーパス・コンピューティング・オン・GPUの略となる。要するにGPUの演算能力をグラフィックス以外のさまざまな用途に活用するということだ。例えば、科学技術計算のほか株式や為替相場のシミュレーションの処理を高速化できる。
当然ながら、最も注目を浴びている用途は、ディープラーニングへの活用だ。GPGPUを使えば、CPUの数十倍の速度で学習を行うことができる。例えば、これまで1回の学習に1週間かかっていたものが、GPUを使えば半日で終わるようになる。
このコンテンツ・機能は有料会員限定です。
- ①2000以上の先進事例を探せるデータベース
- ②未来の出来事を把握し消費を予測「未来消費カレンダー」
- ③日経トレンディ、日経デザイン最新号もデジタルで読める
- ④スキルアップに役立つ最新動画セミナー