ニュース

NVIDIAの野田氏、通信領域における取り組みを語る

 NVIDIA(エヌビディア)は、メディア向けのブリーフィングを開催し、同社の通信領域における取り組みを紹介した。

 プレゼンテーションを行ったのは、NVIDIA デベロッパーリレーションズ/エバンジェリストの野田真氏。本記事では、その様子をお届けする。

NVIDIAの野田氏

ハードウェアだけでなく、ソフトウェアやそのエコシステムまで

 野田氏はまず、NVIDIAのコンピューティングプラットフォームの全体像を紹介した。

 NVIDIAといえばGPUの半導体チップのイメージが強いが、実はフルスタックでコンピューティングプラットフォームを提供している、と野田氏。この中には、150ほどのSDK(ソフトウェア開発キット)も含まれる。

 NVIDIAのフルスタックのフレームワークは多くの開発者に使われており、同社の半導体チップを搭載したプラットフォームで動くアプリケーションが、日々誕生している。

 つまり、NVIDIAはハードウェアの企業でありながら、ソフトウェアや、ソフトウェアを取り巻くエコシステムとのつながりも重視しているということだ。

DPUについて

 NVIDIAの通信領域に関する取り組みを語る上で、欠かせないコンポーネントがある。それが「DPU(データプロセッシングユニット)」だ。

 NVIDIAが買収したMELLANOX(メラノックス)がもともと提供していた「BLUEFIELD(ブルーフィールド)」というスマートNIC(ネットワークインターフェイスカード)を、NVIDIAが強化してDPUという名前で展開している。

 DPUの大きな特徴としては、最大200Gbpsのネットワークインターフェイスを備えていることや、8つのARMコアを搭載していることなどが挙げられる。

 DPUの機能のひとつとして挙げられるのが、「ASAP2(ASAPスクエア)」。DPUが心臓部として搭載しているハードウェア「ConnectX-6」における、重要なテクノロジーの一種だ。

 このASAP2により、本来はホスト側のカーネルでCPUのリソースを使うような転送処理を、NICのハードウェア側にオフロードすることが可能になる。

 もうひとつ、DPUにはNVFIオフロードという機能もある。

 旧来の仮想化のアプローチでは、インフラストラクチャーマネジメントやソフトウェア・ディファインド・セキュリティなど、ハイパーバイザーで行うような処理でCPUのリソースを30%ほど使っていた、と野田氏は語る。

 DPUはARMコアを搭載しているので、こうした処理をホストCPU側からDPUへオフロードできる。この結果、CPUは本来の役割であるVM(仮想マシン)やコンテナの処理に専念でき、システム全体の利用効率が上がる仕組みだ。

 NVIDIAはDPUのための開発プラットフォームとして、「DOCA(ドーカ)」を提供している。

 同社がGPUに対して「CUDA(クーダ)」を提供しているのと同じように、DOCAはDPUの開発者向けの統合開発環境だ。たとえばAPIやサンプルコード、機能実装のためのライブラリーやドライバーなどを、オールインワンパッケージとして提供する。

 DOCAなどの提供を通じて、NVIDIAはDPU開発者のエコシステム拡大を図る。例としては、Palo Alto Networks(パロアルトネットワークス)との協業が挙げられる。

通信領域の取り組み1:vRAN

次世代RANの実現に向けて

 現在の3Gや4G通信では、主に「音声」「データ」の2種類がサービスとして扱われている。そして基地局システムは、単一ベンダーから提供される垂直統合型のRAN(無線アクセスネットワーク)システムとなっている。

 5G通信では、これまでのRANとの比較で、音声やデータに加え、AR・VRやロボティクス、IoTや自動運転など、さまざまなデバイスやアプリケーションが5Gネットワークを介してつながるようになる。

 したがって、通信事業者は、費用対効果も考慮しながら基地局側の設備をアップデートしていく必要がある。

 そのためにまず、ディスアグリゲーション(機能分離化)を推し進めて汎用のサーバーで仮想化し、仮想化したRANコンポーネントをオープンなインターフェイスで接続して組み上げていく。

 そして、組み上げたシステムをクラウドネイティブな形で運用するというのが、今後のRANの姿であるとされている。

 このようなRANを作り上げていく上で、リファレンスとなるアーキテクチャが3GPPで規定されている。

 従来であれば、「RU(Radio Unit)」「DU(Distributed Unit)」「CU(Central Unit)」といったコンポーネントは、一枚岩のシステムとして作られていた。

 これに対し、5G以降の仮想化アーキテクチャでは、こうしたコンポーネントを分割することになる。そして、3つのコンポーネントのうち、仮想化が最も難しいとされているのがDUだ。

 逐次処理のCPUでは、5Gのミリ波やMassive MIMOなど、リアルタイムで計算量が非常に多くなる信号処理への対応が困難とされている。

 野田氏は、「いかに効率的に5GのDUを仮想化するかということが、次世代RANの実現においてカギを握る要素となる」とコメントした。

「Aerial SDK」

 前述のような背景もあり、NVIDIAは2019年10月に「Aerial SDK」を発表した。これは、汎用サーバーで仮想化されたDUの処理をGPUに担わせる「基地局のGPUアクセラレーション」を目的に開発されたソフトウェアだ。

 Aerial SDKの発表の裏で、NVIDIAはさまざまな通信事業者や基地局メーカーなどと共同でPoC(概念実証)を実施していた。日本ではKDDIやソフトバンクとともにPoCを実施し、良好なフィードバックを得ていたという。

 DUの機能を開発するためのアプリケーションフレームワークであるAerial SDKが動作するのは、NVIDIAのGPUとDPUを搭載した汎用サーバーとなる。

 Aerial SDKの長所としては、超並列処理によって高いパフォーマンスを出せることや、エネルギー効率の高いミリ波やMassive MIMOに対応していることなどが挙げられる。

 そして現在、GPU以外にもさまざまなアクセラレータが登場しているが、その中でGPUベースのvRANの強みは、開発スピードの速さや柔軟性にある。

 前述のCUDAを用いると、汎用プログラミング言語のC++などにより、ベースバンド装置(BBU)のパイプラインを気軽にコーディングできる。たとえば、TDD方式におけるアップリンクとダウンリンクの比率の調整なども容易に行えるようになる。

 また、GPUの強力な並列処理もセールスポイントのひとつといえる。5Gのベースバンド処理に関しては、周波数幅やMIMOのレイヤー数などのパラメータが増えると、計算量も2乗、3乗……となり、指数関数的に計算量が増えていく。

 しかし、こうした重い演算のほとんどが行列計算のような処理であり、いずれもGPUが得意とする部分だ。したがって、収容ユーザー数やセルのスループットが拡大すればするほど、GPUベースのvRANの強みが発揮される形となる。

ハードウェア「Aerial A100」

 NVIDIAは今年の後半に、RANに必要な機能を高密度に集約するハードウェア「Aerial A100」のリリースを予定している。これは、GPUとDPUがひとつのPCIeのフォームファクタの中に統合された、「コンバージドアクセラレータ」と呼ばれるもの。

 基地局側にとってのメリットとして、消費電力の削減に加え、収容スペースを縮小できることを野田氏は強調する。

 基地局設備などに近い、いわゆる「エッジ」と呼ばれる場所では、ヘルスケアやロボティクスなど、さまざまなAIサービスが展開されている。こうしたサービスの高度化に向け、5Gインフラは重要な役割を担う。

 NVIDIAは5Gで高度化するAIを「AI-on-5G」と呼んでおり、その流れに貢献するプラットフォームとしてAerial A100が最適である、とする。

 Aerial A100の特徴として、GPUに割り当てるべき5GやAIの処理を、動的に変更できるというものがある。たとえば5G RANの処理が少なくAIの処理が多いときには後者に重点を置く、というような形で、リソースの割り当てを動的に行える。

 こうした強みを持つAerial A100を用いたvRANを展開することは、5G基地局に対する単なる設備投資にとどまらず、未来のAIサービスやエッジサービスなどの収益源につながる「攻めの投資」となりうる、と野田氏。

 NVIDIAは富士通と協業し、Aerial A100を用いたvRANソリューションの開発を進めている。

 まずは今年の秋をめどに、DUにおけるレイヤー1の信号処理をGPUへオフロードするソリューションの実現を目指す。

 そしてその次のステップとして、DUにおけるレイヤー2以上の機能を、Aerial A100に追加していくという機能強化を図る。

 GPUベースの基地局が当面のターゲットとするパフォーマンス指標は、既存のvRANシステムとの比較で、ミリ波やSub-6、Massive MIMOにおける最大収容セル数が3倍あるいはそれ以上というもの。また、ダウンリンク・アップリンクのスループットも3倍以上、消費電力については半分以下を目指していく。

 野田氏によれば、これはあくまでも短期的な目標とのこと。中長期的には既存のシステム、いわゆる「専用システム」と比較しても遜色のないレベルを目指す。

NVIDIAのロードマップなど

 NVIDIAは2022年の半ばごろに、vRANのDU機能をコンバージドカードのみで実現させる。また、2024年にリリース予定の最新のプラットフォームでは、vRAN機能をチップレベルで実現させるという。

 そのほかの取り組みとしては、Google Cloudとの協業によるAI-on-5G Lab設立などが挙げられる。こうした活動を通じ、NVIDIAはAI-on-5Gを推し進めていく。

通信領域の取り組み2:ネットワークの最適化

 昨今では、データサイエンスの盛り上がりとともに、ビッグデータの利活用が注目を浴びている。

 ビッグデータ処理において幅広く活用されているのが、巨大なデータに対して高速に分散処理を行うオープンソースのフレームワーク「Apache Spark」だ。

 同フレームワークは多くの業界のデータ解析で用いられ、通信分野でも、ネットワークの品質向上やユーザーエクスペリエンスの改善などに活用されている。

 そして昨年、このApache Sparkが大きな進化を遂げている。具体的には、Apache Sparkのバージョンが3.0になったタイミングでGPUのサポートが大幅に強化された。

 従来は、「前処理」「トレーニング」というビッグデータ処理の2つのフェーズを、別々のクラスタで行わなければならず、その間をストレージでつなぐ必要があった。それゆえ、パフォーマンス面が課題とされていた。

 Apache Sparkのバージョン3.0では、前処理からトレーニングまでをGPUのクラスタで実行できるようになり、インフラの簡素化と処理の高速化が実現している。

 そして、GPUで高速化されたApache Sparkを実際のネットワーク解析で活用しているのが、韓国最大の通信事業者であるSKテレコムだ。

 同社はビッグデータのクエリ処理に関して、40万以上の基地局を解析ツールで解析していた。クエリ処理には多くの時間を費やしていたが、GPUで高速化されたApache Sparkによって、処理スピードが8倍以上アップしたという。

 そのほか、時系列データを使って人口の不動を予測するという処理でも、4.5倍のパフォーマンス向上を達成している。

通信領域の取り組み3:セキュリティ

 AIのサイバーセキュリティに関するソリューションとして、NVIDIAは「Morpheus(モーフィアス)」と呼ばれる最新のSDKを提供する。

 Morpheusではまず、NVIDIAのDPUなどのセンサーとなるようなデバイスから、パケットをはじめとしたさまざまな情報をNVIDIA認証サーバーに送る。

 そして、サーバーでAIによる推論を行ってセキュリティ上の脅威を検出し、危険なトラフィックを遮断するような適切なアクションを、リアルタイムでデバイスへフィードバックする。

 Morpheusは、現時点ではアーリーアクセスとしてトライアル提供されている。なお、YouTubeでは紹介動画も公開中だ。

【NVIDIA Morpheusの紹介動画】

 Morpheusでは、最新の自然言語処理で培われているテクニックが活用されている。

 具体的には、2018年にグーグル(Google)が発表した「BERT(バート)」を応用して「CYBERT(サイバート)」というツールを生み出し、サイバーセキュリティのログ分析に応用している。

 Aerialのエコシステム同様、Morpheusを軸としたセキュリティのエコシステムに関しても、NVIDIAはパートナーと協業して展開を図る。

 その一例としてCloudflare(クラウドフレア)との協業が挙げられるが、今後もこうしたパートナーシップは増えていくという。

まとめ

 野田氏はブリーフィングのまとめとして、「我々のプラットフォームを駆使して、パートナーシップとエコシステムを拡大しながら、通信分野を支えていきたい。NVIDIAは通信分野とあまりなじみがないと思われがちだが、近未来の通信網では、我々の技術がさまざまな部分で関わってくる可能性がある」とコメントした。