コラム

Column

なぜディープラーニング(深層学習)インフラにGPUが使われるのか?

なぜディープラーニング(深層学習)インフラにGPUが使われるのか

AI(人工知能)の最新技術ディープラーニング(深層学習)。ディープラーニング技術は、DeepMindが作ったAlphaGoが、10年はコンピュータは勝てないと言われていた囲碁のトッププロを破るなど、めざましい発展を遂げています。

近年、そのディープラーニングインフラとして、CPUに代わりGPUが利用され始めているのをご存じでしょうか。
本稿では、CPUとGPUの違い、そして、なぜディープラーニングインフラとしてGPUが脚光を浴びているのか解説します。

1. CPUとGPUの違い

CPUとGPUの違い

1-1. CPUとは

CPUとは、Central Processing Unitの略で、日本語では「中央演算処理装置」です。「マイクロプロセッサ」とも呼ばれます。インテルなどのCPUが有名です。 皆さんの使っているパソコンの頭脳がCPUです。CPUは「『中央』演算処理装置」と言う通り、OSやソフトウェアの計算、ディスプレイの表示など、パソコンのあらゆる処理がCPUを通して行われます。

そして、CPU処理性能には、「18ヶ月で性能が2倍になる」という「ムーアの法則」で知られる経験則があります。世の中のテクノロジーで、最も進化のスピードが早いものの一つがCPUです。パソコン、インターネット、スマートフォン、あっという間に進化し、世の中に浸透していった背景にあるのが、急速なCPU性能向上スピードです。

1-2. GPUとは

CPUに対し、最近脚光を浴びていのがGPUです。GPUは、Graphics Processing Unitの略で、コンピュータグラフィックス(CG、特に3DCG)処理に使われます。GPUは、その名の通り、グラフィック計算処理に強いのが特長です。

GPUが、初期に使われた代表例は映画のCG処理です。1990年代から映画で本格的にCGが使われ始めました。映画「ジュラシック・パーク」などが代表例です。 GPUは、はじめはCG専門家のニッチ商品でしたが、2000年代に一般消費者にまでGPUが広まります。理由は、リアルタイムで3DCGを使うコンピュータゲームがアメリカ中心に流行したことです。リアルタイムで3DCGを処理するには、GPUの膨大な計算処理能力が必要でした。

GPUは画像処理演算に特化しています。一方、CPUは汎用的に何でもこなす万能性を持っています。汎用性があるCPUですが、画像処理演算を高速に行うことに特化したGPUに比べると、3DCGの処理能力は落ちます。そこで、コンピュータゲームでは、汎用的な処理はCPUに任せ、3DCGを高速処理するためにGPUを並行して利用します。

2. ディープラーニング(深層学習)を使いこなす環境が整った

2-1. ディープラーニングが、実用的なAI技術となった

ディープラーニングは、人工知能(AI)の最新技術です。現在は第3次AIブームと言われ、その原動力が、ディープラーニング(深層学習)の発展です。
ディープラーニングは研究段階から応用段階に進み、近年有名な出来事としてはディープラーニング技術を応用したDeepMindのプログラムAlphaGoが囲碁のトッププロに全勝する成果をあげています。これまで、「囲碁でコンピュータが人間に勝つにはあと10年はかかる」ともいわれており、ディープラーニングを使ったコンピュータの完全勝利は、大きな話題となりました。

2-2. ディープラーニング実用化に必要なのは、アルゴリズムと膨大な計算力

さて、AIの1種であるディープラーニングは、なぜ「近年になって」実用的な技術となったのでしょうか。これには2つの理由があります。

1つめは、ディープラーニング=深層学習と呼ばれる技術・アルゴリズムの実用性が認知され、ディープラーニング分野のアルゴリズム研究が大幅に進んだことです。
2つめは、クラウドコンピューティングやCPU、GPUなどのハードウェア技術の発展により、ディープラーニングの実行に必要な膨大な計算力を利用しやすい環境が整ってきたためです。
実は、ディープラーニングの原理そのものは以前から研究されていました。しかし、ディープラーニングアルゴリズムを現実的に使いこなすには、いわゆる「スーパーコンピュータ」並の計算能力を自由に使えるコンピュータインフラ環境が必要です。「スーパーコンピュータ並の計算力を、多くの人が自由に利用できる環境」が、整ってきたのが、まさに「今」なのです。

ディープラーニング分野のアルゴリズム研究スーパーコンピュータ並の計算力を、多くの人が自由に利用できる環境

3. ディープラーニング(深層学習)インフラで注目されるGPU

3-1. ディープラーニングインフラに求められること

「深層学習」という言葉の通り、ディープラーニング実行に必要なのが「事前学習」です。そして、事前学習を行うのに必要なのが膨大な計算力です。前述のトッププロに勝利した囲碁ソフトは、事前に何百万~何千万もの仮想的な対局をコンピュータ上で行うことで、急速に囲碁スキルをあげました。この深層学習の事前学習には、パソコンでいえば、1,000台、1万台といったレベルの膨大な計算処理能力が必要となります。

3-2. ディープラーニングインフラとしてのクラウドコンピューティング

ディープラーニングに必要な膨大な計算力をどうやって用意するか。シンプルな考え方は、パソコンやサーバを大量に用意して同時に使うことでしょう。パソコン・サーバを使う=CPUの計算処理能力を使うと言い換えてもよいです。
ディープラーニングでは、数千台規模のサーバに同時並行で計算処理を行わせます。この計算処理に利用されるのが、クラウドコンピューティングサービスです。

3-3. ディープラーニングインフラとしてCPUの代わりにGPUが使われ始めた

ディープラーニングの学習処理には、CPU数千台レベル、またはそれ以上の計算能力が求められます。そこで、注目されるのが「GPU」です。前述のように、GPUは画像処理に特化して計算処理性能を極限まで高めています。画像処理計算に限れば、CPUの数倍~数百倍の計算処理性能を発揮します。

ディープラーニングで必要な計算能力は、画像処理の計算能力と似ています。そのため、今ディープラーニングインフラとしてGPUの活用が注目されています。条件によるため一概には言えませんが、例えば、「1000個のCPUを使う代わりに10個のGPUで間に合う」可能性があるわけです。

1000個のCPUを使う代わりに10個のGPUで間に合う

4. まとめ

ディープラーニングを活用したい企業・組織が1,000台ものサーバを自前で運用することは現実的ではないでしょう。しかし、GPUの台頭により、ディープラーニングインフラの選択肢は、大きく2つになりました。

  1. 都度クラウドコンピューティングを使う(CPU)
  2. GPUを自前で購入して運用する

ディープラーニングインフラを検討するときは、「CPUか、GPUか」「クラウドコンピューティングの都度利用か、自由に使える自前のGPUインフラを持つか」を比較して、自社に最適な選択肢を検討しましょう。

データドックのHPC/AIソリューション

データドックは高性能計算処理を必要とする研究業務をサポートするため、
HPC/AIシステムの専業インテグレーターであるHPCシステムズ社とタッグを組み、
HPC/AIソリューションを提供します。

Contact

データセンター見学のお申し込み、サービス詳細や価格、資料請求など
お気軽にお問い合わせください