Google、オープンな生成AIモデル「Gemma 2」リリース 270億パラメータモデル追加

0

2024年06月28日 10:11  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

 米GoogleのGoogle DeepMindは6月27日(現地時間)、Google I/Oで予告した、軽量ながらも最先端の性能を持つオープン言語モデル「Gemma 2」を発表した。


【その他の画像】


 2月に発表した「Gemma」は20億パラメータと70億パラメータの2サイズでの展開だったが、Gemma 2は90億パラメータと270億パラメータの2サイズ。


 270億パラメータ版は、「そのサイズクラスで最高の性能を発揮し、2倍以上の規模のモデルに匹敵する性能を実現」するという。90億パラメータ版でも、米Metaの「Llama 3」の80億パラメータ版などを上回る性能を示すとしている。


 Google Cloud TPU、NVIDIA A100、NVIDIA H100などの上で、完全精度で効率的に推論を実行できるように設計されており、高性能を維持しながらコストを大幅に削減できるという。高性能なゲーミングPCからクラウドベースの環境まで、幅広いハードウェア環境に最適化されている。


 Hugging Face Transformers、JAX、PyTorch、TensorFlowなどの主要なAIフレームワークと互換性があり、NVIDIA TensorRT-LLMを使用してNVIDIA製のインフラストラクチャ上でも動作するように最適化されている。


 Gemma 2のトレーニングでは、Googleの厳格な内部安全プロセスに則り、事前トレーニングデータのフィルタリング、包括的な指標を用いた厳格なテストと評価を実施することで、潜在的なバイアスやリスクの特定と軽減に努めたという。


 Gemma 2の活用例としては、チャットbot、創造的なテキスト生成、自動翻訳、質疑応答システムなどを想定している。


 Gemma 2は「Google AI Studio」で利用できる他、KaggleやHugging Face Modelsからモデルの重みをダウンロード可能。また、Vertex AI Model Gardenでも近日中に公開予定だ。


 Googleは、26億パラメータのGemma 2モデルも提供する計画だ。また、特定のAIタスクや課題に対応するためのGemmaの専門的なバリエーションも開発していくという。


 Gemma 2は、Gemma同様、「商業的に扱いやすい」Gemmaライセンスの下で提供されている。開発者や研究者は、Gemma 2の生成物を共有したり、商業化したりできる。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定