富士通は、AIサーバーと高性能コンピューティング(HPC)向けの新しい動的リソースアロケータ技術を発表した。この技術は、従来ハードウェアで行われていたリソース最適化をソフトウェアベースで実現し、特にGPUの効率的な利用を促進するものである。
富士通によれば、この新技術はリアルタイムでCPUやGPUの計算資源を最適に割り当て、プロセスの実行効率を最大限に高めることが可能だとしている。テストでは最大2.25倍のGPU処理性能向上が確認されており、今後の広範な導入が期待される。
富士通の「コンピューティングブローカー」技術の概要
富士通は、AIや高性能コンピューティング(HPC)向けに革新的な動的リソースアロケータ技術「コンピューティングブローカー」を発表した。この技術は、2023年に最初に発表され、日本を含む複数の市場で展開されている。これまで主にハードウェアで管理されていたリソース最適化を、ソフトウェアで実現する点が特徴である。
コンピューティングブローカーは、CPUやGPUの計算資源をリアルタイムで動的に管理し、プロセスの実行効率を最大化することが可能である。また、この技術は単一のGPUのみならず、複数のサーバーにまたがるGPU構成にも対応している。これにより、大規模なデータセンター環境でもリソースの最適利用が実現される。
富士通は、この技術によって特に生成系AIサービスの普及が進む中、エネルギー効率を高めることが可能になると強調している。企業向けのGPU需要が高まる中で、この技術はGPU資源の無駄を削減し、コストパフォーマンスの向上にも寄与することが期待されている。
GPU最適化とリアルタイムリソース割り当ての革新
富士通の新技術は、GPUの最適利用を実現するための動的なリソース割り当てを可能にしている。従来、GPUは固定的なリソースとして利用されていたが、富士通のコンピューティングブローカーは、実行中のプロセスに応じて計算資源を柔軟に再割り当てすることができる。この機能により、より効率的な計算処理が実現される。
特に注目すべきは、プロセスがすでにGPU上で実行されている場合でも、計算資源をリアルタイムで再分配できる点である。この技術により、プロセスの実行効率が向上し、必要なリソースをその時々の処理内容に応じて最適化することが可能になる。また、この技術は高度なメモリ管理機能も備えており、最大150GBのAIワークロードを処理できる。
富士通のこのソリューションは、クラウドサービスプロバイダーやデータセンター向けに設計されており、GPUのリソース管理を大幅に効率化することが期待されている。
事前テストでの2.25倍の処理性能向上
富士通の動的リソースアロケータ技術は、事前テストにおいて非常に高い性能向上を実証している。特に、GPUの処理性能が最大で2.25倍にまで向上したことが報告されている。この結果は、AIやHPC分野における大規模な計算処理を効率化する上で、非常に大きな意味を持つ。
このテストでは、従来の固定的なリソース割り当てと比較して、より柔軟で動的なリソース管理が可能であることが確認された。また、メモリ管理においても、物理メモリ容量を大幅に上回るワークロードを処理できるため、AIモデルのトレーニングや推論において非常に高い効果を発揮する。このような技術的な進歩により、AIやHPC分野での処理速度の向上が期待されている。
企業はこの技術を導入することで、より少ないリソースで高いパフォーマンスを実現できるため、コスト削減とエネルギー効率の向上を同時に達成できる。
日本企業の導入事例と今後の展望
富士通のコンピューティングブローカー技術は、すでにいくつかの日本企業で導入が進んでいる。2024年5月以降、様々な企業がこの技術を試験運用しており、具体的な成果が報告されている。例えば、フィンテックベンチャーのTradomは、この技術を実際に導入し、運用を開始している。また、クラウドサービスを提供するSakuraも、データセンター運用の最適化に向けて、この技術の評価を進めている。
富士通は、この技術がエネルギー消費の削減にも寄与することを強調しており、特に生成AIが普及する中で重要な役割を果たすと見込んでいる。生成AIサービスは今後も拡大が予想されており、エネルギー効率の向上が技術開発の重要な課題となるだろう。このような背景から、富士通のソリューションは、今後さらに多くの企業やデータセンターで採用されることが期待されている。
今後は、複数のGPUがインストールされたサーバーや大規模なデータセンター環境での活用が進むと予測されており、技術のさらなる進化が期待される。