サムスン電子は17日、人工知能(AI)処理能力を統合した業界初の高帯域幅メモリ(HBM)を開発したことを発表した。この新しいプロセッシング・イン・メモリ(PIM)アーキテクチャは、高性能メモリ内に強力なAIコンピューティング機能をもたらし、データセンターや高性能コンピューティング(HPC)システム、AI対応モバイルアプリケーションにおける大規模処理を高速化する、とサムスン電子は説明している。

サムスン電子のメモリ製品企画担当シニアバイスプレジデントであるKwangil Parkは、「当社の画期的なHBM-PIMは、HPC、トレーニング、推論などの多様なAI駆動のワークロードに対応した業界初のプログラマブルPIMソリューションです。私たちは、AIソリューションプロバイダとさらに協力して、さらに高度なPIMを搭載したアプリケーションを実現することで、この画期的な製品をさらに発展させていく予定です」と述べている。

アルゴンヌ大学のアソシエートラボラトリー・ディレクター、Rick Stevens(コンピューティング・環境・生命科学担当)は、「サムスンがHPCとAIコンピューティングのためのメモリ帯域幅と消費電力の課題に取り組んでいることを知り、大変嬉しく思っている。HBM-PIMの設計は、重要なクラスのAIアプリケーションにおいて印象的な性能と消費電力の向上を実証しているので、アルゴンヌ国立研究所が関心を持つその他の問題についても、HBM-PIMの性能を評価するために協力していくことを楽しみにしている」と述べた。

今日のコンピューティングシステムのほとんどは、何百万もの複雑なデータ処理タスクを実行するために、別々のプロセッサとメモリユニットを使用するフォン・ノイマン・アーキテクチャに基づいている。このシーケンシャルな処理アプローチでは、データを常に前後に移動させる必要があり、特に増え続けるデータ量を処理する場合には、システムの速度が低下するボトルネックとなっていた。

その代わりに、HBM-PIMは、DRAMに最適化されたAIエンジンを各メモリバンク(ストレージサブユニット)の内部に配置することで、並列処理を可能にし、データの移動を最小限に抑えることで、処理能力をデータが保存されている場所に直接もたらす。サムスンの既存のHBM2 Aquaboltソリューションに適用した場合、この新しいアーキテクチャは、エネルギー消費を70%以上削減しながら、システム性能を2倍以上に向上させることができる。また、HBM-PIMはハードウェアやソフトウェアの変更を必要としないため、既存のシステムへの迅速な統合を可能にする。

サムスンのHBM-PIMに関する論文は、2月22日まで開催されている有名な国際ソリッドステート回路仮想会議(ISSCC)での発表に選ばれた。サムスン電子のHBM-PIMは現在、主要なAIソリューションパートナーによってAIアクセラレータ内でテストされており、すべての検証は今年の上半期中に完了する予定だ。

Image by Samsung.