Amazon Web Services(AWS)は、AMDのAIアクセラレーターInstinct MI300Xをクラウドで展開する予定を取り下げた。背景には顧客からの需要の弱さがあるとされる。AWSは競争力のある価格設定を可能とする独自設計のTrainiumを提供しており、これがAMDやNvidiaの製品採用に影響を及ぼしている可能性も高い。
一方でAWSは、AIおよびHPC向けにNvidiaの新世代Blackwell GPUを活用する計画を発表し、より強固なポートフォリオの構築を目指している。AMDのInstinctシリーズは、価格競争力において優れるものの、NvidiaのCUDAエコシステムに対抗しきれない現状にある。AWSは引き続きAMDのEPYCプロセッサを活用しており、協力関係は維持されているものの、GPU採用では方向性が異なるようだ。
AWSがInstinct MI300Xを採用しない背景とは
AMDのInstinct MI300Xは、価格面でNvidiaのH100に対し優位性を持つが、ソフトウェアエコシステムの差が導入を阻んでいる。特にNvidiaのCUDAプラットフォームは、開発者にとって利便性が高く、既存のワークフローをスムーズに統合できる点が強みだ。
これに対し、AMDは依然としてソフトウェア環境の成熟が課題とされている。また、AWSの内部事情も大きな要因である。AWSは独自設計のTrainiumやTrainium2を展開しており、これらが同社のデータセンター運営コストを抑える一方で、AMD製品に置き換えるインセンティブを減少させている。
一方で、AWSのAnnapurna LabsがAMD製品の採用を控える背景には、競合する立場があることも否定できない。Business Insiderによると、AWSの担当者は「顧客の需要が強ければ採用する」と明言しているが、現実にはAWS自身が他の製品との競争を促す環境を作り出している可能性も示唆される。AWSとAMDの協力関係が続く中で、GPU分野における優先順位の変化が、今後どのように影響を与えるのか注目される。
Nvidia Blackwell GPUへの注力が示すAWSの戦略
AWSは先日開催されたre:Inventカンファレンスで、次世代GPUとしてNvidiaのBlackwellを採用する計画を発表した。このBlackwell GPUを搭載したP6サーバーは、AIとHPC(高性能計算)用途での高いパフォーマンスが期待されている。
これにより、AWSは最先端のAIワークロードにおける需要を取り込むことを目指している。特に、AWSが強調したのは、Blackwellの高い処理能力と効率性であり、大規模なモデル学習や推論タスクにおいて業界をリードすることを目指す姿勢だ。
この動きは、単なるGPU選定を超えた戦略的意図を反映している。Nvidiaのエコシステムは、すでに広範な市場で支持されており、新しい技術がスムーズに統合される可能性が高い。AWSがこのプラットフォームに注力することで、顧客が既存のNvidiaベースの開発環境を活用しつつ、より強力な性能を享受できる利点がある。一方で、この選択はAMDや独自製品との間での競争のバランスをいかに維持するかという課題も含んでいる。
AMDの未来とクラウド市場における可能性
AWSがInstinct MI300Xを採用しない中でも、AMDがクラウド市場での存在感を完全に失ったわけではない。AMDのEPYCプロセッサは引き続きAWSの多くのインスタンスで採用されており、計算負荷の高いタスクやメモリ集約型アプリケーションにおいて重要な役割を果たしている。
特に、EPYCはその多コア設計とメモリサブシステムによる効率性の高さが特徴であり、インテルのXeonプロセッサに対抗する有力な選択肢となっている。
さらに、AMDはGPU分野における競争力を強化するため、Instinctシリーズの改良を進めている。例えば、MI325Xのような新モデルは性能面での向上だけでなく、ソフトウェアの改善も目指している。これにより、開発者の障壁が取り除かれる可能性がある。
AWSとの協力関係が続く中で、将来的に需要が変化し、Instinctシリーズが採用される可能性も完全には否定できない。AMDが市場での地位を強化するためには、製品の技術的進化と同時に、Nvidiaとのエコシステム競争においても戦略的な施策が求められる。