NVIDIAのフアンCEOの一問一答 「AIネイティブにとってのパーソナルコンピューターが生まれる」の真意

0

2025年05月22日 17:11  ITmedia PC USER

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia PC USER

質問会で質疑に応じるNVIDIAのジェンスン・フアンCEO

 NVIDIAは5月21日(台湾時間)、報道関係者とアナリストを対象にジェンスン・フアンCEOへの質問会を開催した。基調講演の内容を受けて、質問はAIに関する展望や台湾に建設する予定のオフィスに関する話題に集中した。


【その他の画像】


 この記事では、ITmedia PC USERに関係するであろう「Windows ML」と「ローカルAIデバイス」に関する質疑の様子をお伝えしたい。


●そもそも「Windows ML」とは何なのか?


 Windows MLはWindowsで機械学習(Machine Learning:ML)プログラムを展開するためのAPIで、Windows 10以降のWindowsで利用できる(※1)。


(※1)プログラムのパッケージによってはWindows 8.1以降でも実行可能


 Windows MLは、Meta(旧Facebook)とMicrosoftが共同で開発した機械学習モデルのフォーマット「ONNX」でAIモデルを作成し、「ONNX Runtime 」(ORT)を介して展開する。


 従来、Windows MLはDirectX 12に内包されている「DirectML」と呼ばれるAPIによって実行してきたが、Microsoftが5月19日(米国太平洋夏時間)に「EP(Execution Provider:実行プロバイダー)」という新しい仕組みを導入すると発表した。


 DirectMLはDirectX 12に対応するGPU向けの汎用(はんよう)APIだ。そのため、GPUがネイティブに対応するAPIと比べると、実行効率に難があった。その点、EPを利用するとCPU/GPU/NPUに“最適化”されたAPIで機械学習モデルを実行できるようになる。


 このEPについて、NVIDIAは「TensorRT for RTX」という形でTenosorコア搭載のGPU(RTXシリーズ)向けに提供する。NVIDIAの調べによると、TensorRT for RTXを使うとRTXシリーズにおける機械学習処理(FP16演算)のパフォーマンスが平均で1.5倍高速になるという。


●Windows MLやローカルAIデバイスの進化がもたらすメリットとは?


 Windows MLやローカルAIデバイスに関する話題は、いわゆる「AI PC」に関する取り組みに関する質疑の中で出てきた(以下のやりとりは筆者が翻訳)。


質問者 エンタープライズはとても重要な市場です。AIサーバだけでなくAI PCについても話題になることが多いです。あなた(フアンCEO)はこれからの将来、これらが(NVIDIAにとって)どのようなポテンシャルを持っているとお考えでしょうか。


フアンCEO 昨晩、Microsoftが新しいAPIとしてWindows MLを発表しました。AIがWindowsに(より)組み込まれるということです。


 私たちのRTX(GeForce RTXシリーズやNVIDIA RTXシリーズ)には、CUDAコアとTensorコアが例外なく内蔵されています。RTXを搭載しているPCは(累計で)数億台あります。RTXはAIと等しい存在です。そしてWindowsで稼働するPCやワークステーションにも多数のRTXが搭載されています。


 もしあなたが(ソフトウェア)開発者なら、AIスーパーコンピューターが気に入ると思います。(AI処理を)クラウドに投げずに済ませられます。開発中はたくさんのファイルがあると思うのですが、それをクラウドにアップロードしたくないということもあるはずです。


 もしあなたがMacを使っているとしても、問題ありません。Windows PCを使っているとしても、問題ありません。私たちは完璧なデバイスを届けられます。あなたの隣に座っているスーパーコンピューターを、ローカルでもクラウドでも同じソフトウェアを稼働できます。


 もしあなたがソフトウェアのバックグラウンドのAPI開発者だとしても、これ(DGX Spark)は完璧です。開発者にとっての完璧な相棒です。もっと大きいのが欲しいなら、これ(DGX Station)もある。AIネイティブにとってのパーソナルコンピューターとなりうるのです。



    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定