テレコム業界で拡がる GPU & AI

Makoto (Mark) Noda JP
NVIDIA Japan
Published in
8 min readSep 8, 2020

エヌビディアの野田と申します。テレコム領域のデベロッパーリレーションズを担当してしております。本稿を皮切りに、テレコムに関連する様々なエヌビディア ネタをお届けしてまいりますので、今後ともよろしくお願い致します。

記念すべき第 1 回目となる今回ですが、テレコム業界で拡がる GPU & AI と題しまして、当社のテレコム業界での取り組みの一部をご紹介します。

具体的には、今春に開催された、当社の技術カンファレンスである GTC 2020 から、テレコム業界に関するセッションを、3 つほどピックアップして、それぞれ要約してお伝えします。 * なお、2020/10/5 〜 10/9 にて 次回 GTC も開催が決定しております。詳細については、こちらをご覧下さい。

目次

  1. エッジ AI コンピューティング
  2. モバイル網でのディープラーニング活用事例
  3. GPU で加速させる 5G vRAN
  4. まとめ

エッジ AI コンピューティング

まず最初にご紹介するのは、セッション番号 S22704 の More Powerful, Secure AI at the Edge with NVIDIA EGX です。

昨今の IOT 普及による、身の回りのデバイスの総スマート化により、ユーザーやデバイスに近いロケーションでの AI 処理、つまりエッジ AI コンピューティングの重要性が増してきています。本セッションでは、こういったエッジ AI の展開に最適な、エヌビディアのエッジ向けプラットフォーム、EGX について解説しています。

エッジ AI コンピューティング最適化の為には、それぞれのユースケース毎に最適な演算ハードウェア ( GPU など ) を選択できる必要があります。また、各エッジ ロケーションへの効率的な展開、そして、高い可用性や堅牢なセキュリティも鍵となります。

こういった要件に対して、EGX は、ハードウェア ( 組み込みデバイス向け GPU や、ネットワーク エッジ向け GPU など ) の違いを意識させない、統一されたクラウドネイティブなスタック採用することで、利便性の犠牲無しに、柔軟にハードウェアをご選択いただけます。加えて、Kubernetes や Helm によるワークフローの自動化や、ワークロードのオーケストレーション、さらに、TPM 2.0 対応などによる強固なセキュリティもご提供します。

本セッションでは、GPU を搭載したワーカーノードを、透過的にK8Sクラスターに参加させる手法 ( GPU Operator )、AI フレームワークなどをセキュア且つ効率的にエッジへ展開する時のハブとなる NGC、EGX を取り巻くバラエティに富んだパートナー エコシステム、加えて、2020 年 4 月に買収が完了した Mellanox のネットワーク領域のポートフォリオを融合した、これからの EGX プラットフォーム展開についても解説しています。エッジ AI コンピューティングの今、そしてこれからの方向性にご興味のある方には、是非ともご視聴頂きたいセッションです。

モバイル網でのディープラーニング活用事例

次にご紹介したいのは、 セッション番号 S21693 の 5G Meets Deep Learning, Ray Tracing, and GPUs です。

昨今の通信事業者様が直面する課題の 1 つに、フラット化する加入者収益 vs 増大する設備投資が挙げられます。同課題に対する有効な打開策の一つが、ミリ波による Masive MIMO & ビームフォーミングでの高度な空間多重です。但し、このテクノロジーは膨大な演算を伴うもので、端末や基地局設備の消費電力や SNR、そして処理遅延の悪化を抑えながら、多重度を高めていくのは、簡単なことではありません ( 特に 256 素子アンテナの場合など )。そこで、アリゾナ州立大学やエヌビディアが中心となって、前述の課題の緩和に向けて、機械学習を用いたアプローチを研究していますが、本セッションではその内容をご紹介しています。

具体的には、ハイブリッド ビームフォーミングの伝搬チャネル特性の推定に、ディープラーニングを活用した Auto Precoder と呼ばれる手法を提示しています。

核となるのは、Channel Encoder ブロックと Precoder ブロックから成る巧妙なニューラル ネットワークです。この Auto Precoder ですが、従来のオーバーヘッドの大きい演算方法によるチャネル推定 + ビーム予測と比較し、少ないパイロットで、より精度の高い予測が可能です。その結果、最大で約4倍のデータレート ( bits/s/Hz ) の実現が見込まれています。また、演算速度についても、8 ストリームの場合で、従来の演算時間 ( 11.77 ms ) と比べ、CPU を用いた場合で約1/8 ( 1.5ms ) 、GPU を用いた場合は、約1/38 ( 0.31ms ) の時間での演算が可能となります。これにより、キャリアのスケジューリングがさらに効率化し、結果として、セルのシステム キャパシティの向上が期待できます。

後半部では、フィールド展開に際して、実環境に即したシミュレーションをより正確に行う手法として、3D レイトレーシングを用いたアプローチをご紹介しています。 ( REMCOM 協力 )

本ディープラーニングの活用事例は、現在モバイル網で適用が進み始めている、予兆検知などのOAM 領域のユースケースとは一味違った取り組みです。従いまして、これまでと少し別の角度からの、テレコム業界へのディープラーニング活用にご興味のある方には必見のセッションと言えます。

なお、上述のアルゴリズム、そしてデータセットなど、より詳細にご興味ある方は、セッションと併せて、こちらの論文 、そしてこちらのサイトもご参照ください。

GPU で加速させる 5G vRAN

最後にご紹介するのは、 セッション番号 S22009 の Building ORAN based High Performance 5G RAN Systems with NVIDIA GPUs and Mellanox NIC です。

4G でコア側を中心に本格化したモバイル網の NFV 化ですが、最近では、アクセス側 ( RAN ) でも盛り上がりを見せています。3GPP における 5G の仕様そのものが、ディスアグリゲーションを意識していることと、昨今の、RAN のオープン化を推進する通信事業者様主導の活発な取り組み ( O-RAN など ) によって、単一ベンダーによる垂直統合型の RAN ソリューションから、COTS ハードウェア + VNF を、適材適所に ( 場合によってはマルチベンダーで ) 展開するアプローチへと変わりつつあるのが、その背景にあります。

但し、この潮流の実現にあたっては、いくつかの課題が存在しており、その中でも特に重要な課題が、5G NR の複雑なベースバンド処理に起因しています。具体的には、5G RAN の仮想化にあたっては、gNB を、CU、DU、RU という 3 つのファンクションに分離して、VNF で vRAN を実現しますが、一般的な CPU ベースの COTS ハードウェアの場合、DU におけるベースバンド処理が、パフォーマンス上のボトルネックになりやすい、という点です。

そこで、昨年 10 月に、エヌビディアは Aerial と名付けられた、世界で初めて、GPU を用いたソフトウェアディファインド BBU を実装するSDK を発表し、5G vRAN の市場に参入しました。

このセッションでは、Aerial の概要と、その主要な構成要素である、cuBB ( GPU を活用して、経済的にハイパフォーマンスなベースバンド処理を実現する、Aerial の心臓部とも言えるフレームワーク ) と、cuVNF ( O-RAN 準拠のフロントホールインターフェースでは、厳密なウィンドウでのリアルタイム処理が要求されるが、同要件等を満たす為に IO 高速化を行うフレームワーク ) についてご説明し、最後にエンドツーエンドの展開例をご紹介しています。

Aerial と GPU、そして Mellanox のスマート NIC を中心に構成される COTS ハードウェア システム、最先端の vRAN アーキテクチャとその実装例、そして GPU ノードのネットワーク IO 処理の高速化にご興味のある方には、うってつけのセッションです。

まとめ

今回は、今春に開催された GTC 2020 から一部セッションを抜粋する形で、エヌビディアのテレコム業界での取り組みをご紹介しました。

本稿で取り上げたトピック以外にも、テレコム業界における GPU & AI の活用事例は数多くございますので、次回以降、随時ご紹介していく予定です。

もちろん、今回の 3 つのトピックについても、今後、異なるアングルで掘り下げたり、新機能を追加でご紹介したりと、引き続き皆様にとって有益な情報を継続してお届けしてまいりたいと考えておりますので、乞うご期待ください。

--

--