HPE、「The Machine」でメモリ主導コンピューティングを提唱 - ムーアの法則の終焉に備えよ

HPE、「The Machine」でメモリ主導コンピューティングを提唱 - ムーアの法則の終焉に備えよ

画像提供:マイナビニュース

●The Machineが必要となる2つの理由とは?
Hewlett Packard Enterprise(HPE)が3年前に発表した次世代コンピューティング構想「The Machine」が少しずつ現実に近づいている。今年5月、HPEは160TBという最大の単一メモリシステムの実証実験に成功したことを発表した。6月8日まで米ラスベガスで開催された年次イベント「HPE Discover Las Vegas 2017」でプロジェクトを率いるHewlett Packard Labsのチーフアーキテクトを務めるKirk Bresniker氏がThe Machineの背景から現状、今後の計画について説明した。

○ムーアの法則が終わる、その後の世界は?

The Machineは、プロセッサを中心にメモリが直接接続されている現在のコンピューティング・アーキテクチャ(プロセッサ主導)から、「メモリ主導コンピューティング」にシフトすることを提唱する。

具体的には、メモリのプールを構築し、プロセッサがアクセスして必要な時に必要なメモリリソースを使うというアーキテクチャで、メモリ/ストレージ/プロセッサ間の非効率を排除できる。不揮発性メモリ、フォトニクス技術を採用したインターコネクトにより、高速性を実現する。

そもそも、なぜThe Machineが必要なのだろうか? Bresniker氏は2つの理由を上げる。1つはコンピュータの進化を支えてきた『ムーアの法則』の終わり、もう1つはデータの爆発とリアルタイム化だ。

ムーアの法則は半導体の集積回路は18〜24カ月で2倍になるという理論だが、Bresniker氏はトランジスタ数、シングルスレッドの性能、動作周波数、消費電力、コア数の推移を示したグラフを見せながら、「これ以上の微細化は難しくなってきた」と指摘する。

転機は2005年だ。シングルスレッドの性能、動作周波数、消費電力が増えなくなり、コアの数のみが増え始めた。マルチコア化だ。「小型化、高速化、そして消費電力を抑え、価格も下がるというパターンからの物理的シフトが2005年頃に起こっている」とBresniker氏は言う。その後、「コアを増やすというアドバンテージすら収束を迎えつつある」と続ける。

2つ目のデータの増加はいうまでもないトレンドだ。Bresniker氏は、2年ごとにこれまで生成したデータ量を倍増させているというIDCのデータを紹介する。それだけではなく、データから洞察を得る時間はかけられなくなっている。「Systems of Recordの時代はPCに座って入力していたが、ソーシャルネットワーク、スマートフォンなどのモバイルのトレンドがSystem of Engagementにつながり、さらにはIoTによりモノが自動的にデータを生成するSystem of Actionが誕生する。クラウド、エッジコンピューティングとそれらを支える環境も整いつつある」とエンタープライズシステムの流れを解説した。

「継続して情報処理をスケールするにはどうすればよいか――メモリ主導コンピューティングがHPEの回答だ」とBresniker氏。

メモリ主導コンピューティングでは、データを中心にさまざまなコンピューテーションのアプローチが接続するが、以下の図のようにx86、ARM、FPGA、GPU、DSPなどに加えて、クアンタム、フォトニックコンピューティングなど新しいアプローチも利用できる。「大規模なメモリグループで拡張性、性能、電力を供給できる」とBresniker氏はメリットを説明する。

○キーテクノロジーは「不揮発性メモリ」と「フォトニック

The Machineは2014年に発表され、その後着実に開発が進んでおり、2016年11月にはプロトタイプの動作に成功したことが報告された。コンピュートノードが共有のファブリック・アタッチド・メモリのプールを構築、これはHPEの光伝送フォトニックエンジン「X1」モジュールを含むフォトニクスと光通信リンクでアクセスできるもので、カスタマイズしたSoC上で最適化したLinux OSを動かした。

そして今年5月、160TBの共有メモリを相互接続した40の物理ノードをまたいで分散するというプロトタイプシステムを構築し、動かすことに成功した。

Bresniker氏によると、メモリ主導コンピューティングの特徴は4つあるという。1つ目は不揮発性メモリで、「安定した環境でメモリとストレージを組み合わせ、処理速度を上げ、電力効率を改善できる」(Bresniker氏)。2つ目はフォトニクス技術を用いた高速なメモリファブリックだ。「マイクロ秒では遅すぎる。ナノ秒でアクセスする必要がある」という。3つ目はタスク固有の処理で、x86など汎用のものからDSPなど特定のタスクでも処理を最適化できる点だ。4つ目はソフトウェアで、「ソフトウェア環境の効率が改善し、全く新しいアプローチも可能になる」と説明した。

●今後の目標は「エクサスケール」
用途についてはこれからだが、その可能性は感じることができる。Bresniker氏によると、同じハードウェアと同じOSという環境で「Apache Spark」を動かしてみたところ、The Machineを利用することで15倍高速になったという。類似検索については、それまですべての画像に対して比較する計算を行っていたのに対し、豊富なメモリを活用して画像をメモリに保持し、メモリのルックアップを行うというアプローチを変えた。これにより、同じ計算リソースで40倍高速になったとのことだ。

新たなアルゴリズムの例としては、セキュリティログの分析を紹介した。PC、モバイルなど社内ネットワークを利用する端末がウイルスに感染していないかをグラフ理論を用いて分析するというもので、100倍も高速になったという。

○大規模システムから組み込みまで

メモリ主導コンピューティングの構想がきちんと動くことが実証された後、HPEは業界全体の取り組みに拡大させている。

2016年のDiscoverイベントではThe Machineのコンポーネントをローレベルのエミュレーション、シミュレーションなど、オープンソースして公開しているという。「これまではソフトウェアを完成されてオープンソースにしていた。今回は早期に、そして継続的にコミュニティに公開する」(Bresniker氏)。

ハードウェア側では2016年10月、「Gen-Z Consortium」として、IBM、Dell EMC、Huaweiらとコンソーシアムを立ち上げた。「ソフトウェア、ハードウェア、コンポーネントベンダーらが共同で、オープンな業界標準のメモリファブリックの仕様を策定している。これにより、相互運用性が保たれる」とBresniker氏は狙いを説明する。参加企業は35社を上回る数に達している。

今年のHPE Discover会期中には、ユーザーグループも立ち上げた。参加企業とメモリ主導コンピューティングのアプリケーションなどの議論を進めていくという。

では、The Machine事態の進化はどうか。160TBを実現した後、「エクサスケール」を目指す。2019・2020年にエクサスケールシステムのプロトタイプを作成、Gen Zでは仕様が完成してシリコンが登場、2020年以降は、IoTのエッジ、組み込みなどの小型向けの開発が進むと見る。

最後にBresniker氏は、ラボチームがSuperdome Xでシステムを構築していることに触れながら、「すぐにメモリ主導コンピューティングを試すことができる」とした。
(末岡洋子)

関連記事(外部サイト)