AMD、AIの推論に適したデータセンター向け「Instinct MI325X」 2025年Q1デビュー

0

2024年10月11日 10:31  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

「AMD Instinct MI325X」を発表するリサ・スーCEO

 米AMDは10月10日(現地時間)開催の「Advancing AI 2024」イベントで、LLMモデルのトレーニングや推論に適したデータセンター向け新型アクセラレータ「Instinct MI325X」と、高速ネットワーク通信を実現する「Pensando Salina DPU」および「Pensando Pollara 400」を発表した。


【その他の画像】


 Instinct MI325Xは、従来モデルと比較してメモリ容量と帯域幅が大幅に向上しており、生成AIモデルの処理性能を向上させることができるとしている。


 Instinct MI325Xは、AMD CDNA 3アーキテクチャをベースに、基盤モデルのトレーニング、微調整、推論などのAIタスク向けに設計されている。


 256GBのHBM3Eメモリを搭載し、6.0TB/秒の帯域幅をサポートする。AMDは「米NVIDIAのH200と比較して1.8倍の容量と1.3倍の帯域幅を実現している」としている。推論性能は、Mistral 7B(FP16)、Llama 3.1 70B(FP8)、Mixtral 8x7B(FP16)で、H200と比較して最大1.4倍という。


 リサ・スーCEOは「AIの需要は急増し続けており、予想を上回っている」と語った。同氏はデータセンターAIアクセラレータ市場が2028年には5000億ドル規模に成長すると予測し、AMDにとって大きな成長機会であると強調した。


 イベントでは、Google、Oracle、Microsoft、Metaなど、主要な顧客やパートナーとの連携による、AIエコシステムの構築についても紹介された。


 2025年第1四半期に、Dell Technologies、Eviden、Gigabyte、Hewlett Packard Enterprise、Lenovo、SupermicroなどがInstinct MI325X搭載システムの提供を開始する見込みだ。


 NVIDIAは3月にH200の後継になる「Blackwell」を発表し、年内にリリースする予定だったが、8月に技術的な問題で、リリースが遅れると報じられている。



    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定