AMDは木曜日、これまでで最も強力なAIチップであるInstinct MI325Xアクセラレータのリリースを発表した。
「私たちの目標は、オープンな業界標準のAIエコシステムを推進し、誰もがその上にイノベーションを加えることができるようにすることだ」と、AMDの会長兼CEOであるリサ・スー氏はサンフランシスコで行われた同社の「Advancing AI 2024」プレゼンテーションで述べた。
この技術により、AMDはAI市場においてNVIDIAのBlackwellに対抗する、より優位な立場に立つことになります。AMDは同じプレゼンテーションで、エンタープライズ、AI、クラウドアプリケーション向けに設計された新しいサーバーCPUを含む、いくつかの斬新な製品も発表しました。
AMD Instinct MI325XアクセラレータがAIインフラの容量を拡張
AMD Instinct MI325Xアクセラレータは、急速に普及している今日の生成AIに関わるプロセスである基礎モデルのトレーニング、微調整、推論を高速化し、6.0TB/秒をサポートする256GBのHBM3Eを搭載しています。この新製品ラインは、AMDのCDNA 4アーキテクチャによって実現されています。
AMDは、これらのアクセラレータの容量と帯域幅は、主要な競合製品であるNVIDIA H200を凌駕すると主張しています。また、Instinct MI325Xアクセラレータは、H200と比較して、Mistral 7B AIでは1.3倍、Llama 3.1 70Bでは1.2倍、MistraのMixtral 8x7Bでは1.4倍の推論性能向上が期待できると述べています。
AMDはこの製品で主にハイパースケーラーをターゲットとしています。特にハイパースケーラーは、データセンターにおけるAI対応ハードウェアの拡張や、高負荷のクラウドインフラの強化を望んでいます。
Instinct MI325Xは2024年第4四半期に発売予定です。2025年第1四半期には、Dell Technologies、Eviden、Gigabyte、Hewlett Packard Enterprise、Lenovo、Supermicroのデバイスに搭載される予定です。その後、AMDはMI350シリーズの拡充を続け、288GBのInstinct MI350シリーズアクセラレーターは2025年後半に発売される予定です。
第5世代AMD EpycサーバーCPUには最大192個のコアが搭載されている

AMDの最新世代Epycプロセッサ(コードネーム「Turin」)もサンフランシスコで発表され、Zen 5コアアーキテクチャを採用しています。AMD Epyc 9005シリーズプロセッサは、コア数が8から192まで、多様な構成で提供され、AIワークロードのGPU処理を高速化します。この分野におけるAMDの主な競合製品は、IntelのXeon 8592+ CPU搭載サーバーです。
AMDは、パフォーマンス密度が重要な利点だと述べています。同社によると、より大容量のGPUを使用することで、データセンターで使用する電力は推定71%削減され、サーバー台数は約87%削減できるとのことです。AMDは免責事項を記載し、環境要因は特定のユースケースや場所に適用されない限り、多くの仮定を伴うことを明記しています。
参照:セキュリティ研究者は、一部の詐欺師が顔認識ソフトウェアを騙す AI 生成ビデオを利用して利益を得ていることを発見しました。
Epyc 9005シリーズプロセッサはすべて木曜日にリリースされました。Cisco、Dell、Hewlett Packard Enterprise、Lenovo、Supermicro、そして主要なODMおよびクラウドサービスプロバイダーがこの新しいチップラインをサポートしています。
「新しいAMD Instinctアクセラレータ、EPYCプロセッサ、AMD Pensandoネットワーキングエンジン、オープンソフトウェアエコシステムの継続的な成長、そしてこれらすべてを最適化されたAIインフラストラクチャに結び付ける能力により、AMDは世界クラスのAIソリューションを構築および展開するための重要な専門知識を強調しています」と、AMDのデータセンターソリューションビジネスグループのエグゼクティブバイスプレジデント兼ゼネラルマネージャーであるフォレスト・ノロッド氏はプレスリリースで述べています。
2つの新製品はAIネットワークのフロントエンドとバックエンドの技術をカバー
AMDは、ハイパースケール環境におけるAIネットワーキング向けに、Pensando Salina DPU(フロントエンド)とPensando Pollara 400 NIC(バックエンド)を開発しました。前者はデータ転送を処理し、AIクラスターに安全かつ高速にデータを配信します。後者はNIC(ネットワーク・インターフェース・カード)であり、Ultra Ethernet Consortium(UEC)認定の設計を用いて、アクセラレーターとクラスター間のデータ転送を管理します。AMDによると、このような機能を備えたAI NICは業界初です。DPUは400Gbpsのスループットをサポートします。
このテクノロジーのより広範な目標は、より多くの組織がデバイス、データ センター、またはクラウドで生成 AI を実行できるようにすることです。
AMD は、AMD Pensando Salina DPU と AMD Pensando Pollara 400 NIC の両方が 2025 年前半に一般発売される予定であると予想しています。
近日発売:商用利用向けRyzen Pro 300シリーズノートパソコン
OEM各社は、AMDのRyzen Pro 300シリーズプロセッサを搭載したノートパソコンの出荷を2024年後半に開始する予定です。6月に初めて発表されたRyzen Pro 300シリーズは、AI搭載PCの主要コンポーネントです。特に、Microsoftが現在および今後発売予定の商用デバイスにCopilot+ AI機能を搭載するという取り組みに貢献します。
「マイクロソフトとAMDの提携、およびRyzen AI PROプロセッサのCopilot+ PCへの統合は、顧客にインパクトのあるAI主導のエクスペリエンスを提供するという両社の共同の注力を示すものです」と、マイクロソフトのWindows+デバイス担当コーポレートバイスプレジデント、パヴァン・ダヴルリ氏はプレスリリースで述べています。
レノボは、ThinkPad T14s Gen 6 AMDにRyzen AI PRO 300シリーズプロセッサを搭載しました。レノボ・インテリジェント・デバイス・グループのプレジデントであるルカ・ロッシ氏は、プレスリリースでこのチップについて、「このデバイスは卓越したAIコンピューティング能力、強化されたセキュリティ、そして並外れたバッテリー駆動時間を提供し、プロフェッショナルが生産性と効率性を最大限に高めるために必要なツールを提供します」と述べています。
TechRepublic は AMD の Advancing AI イベントをリモートで取材しました。
訂正: この記事は、現世代の Epyc プロセッサが Zen 5 Core アーキテクチャを使用していることを反映するように更新されました。