ライオン、独自LLMの開発に着手 製造業の“暗黙知”を継承できるか

0

2025年11月25日 23:10  ITmediaエンタープライズ

  • チェックする
  • つぶやく
  • 日記を書く

ITmediaエンタープライズ

写真

 ライオンは、自社の研究開発データを活用した大規模言語モデル(LLM)の「LION LLM」の開発に着手したと発表した。アマゾン ウェブ サービス ジャパン(以下、AWSジャパン)の生成AI実用化推進プログラム協力の下、ものづくり分野におけるデジタルトランスフォーメーション(DX)の推進を目的とした取り組みとされている。


【その他の画像】


●「ものづくりDX」を推進するLION LLMとは


 同社は2030年を見据えた経営ビジョン「次世代ヘルスケアのリーディングカンパニーへ」の実現を目標に掲げており、その中期経営計画「Vision2030 2nd STAGE」を2025年より始動している。その中でデジタル領域を重点分野と位置付け、『ものづくりDX』を主要テーマの一つとしている。このテーマでは収益力と創造性を兼ね備えた高付加価値製品やサービスを迅速に市場へ投入できる体制の構築を目指している。


 製造業においては、熟練者による経験知やノウハウなどの「暗黙知」が競争力を支える重要な要素となってきた。ライオンでも、技術者の退職に伴う知識の継承が課題となっており、2022年以降の生成AIの発展を背景に、AI技術を活用した知識伝承の取り組みを進めてきた。2023年12月には研究ナレッジ検索ツールを導入し、情報検索に要する時間を従来比で5分の1以下に短縮する成果を得ている。


 しかし、専門性の高い質問や体系的な知識整理を必要とする複雑な業務において汎用(はんよう)的なAIモデルでは十分な回答が得られないという課題が残されていた。こうした状況を踏まえ、同社はAWSジャパンの支援の下、独自のLLM開発に着手している。


 ライオンは2025年4月からAWSジャパンのプログラムに参加し、クレジット付与によるコスト支援や技術的助言を受けつつ、社内に分散学習基盤を構築する。この基盤において、「AWS ParallelCluster」(AWSがサポートするオープンソースのクラスタ管理ツール)と「Megatron-LM」(NVIDIAが開発した、LLM向けのトレーニングフレームワーク)を組み合わせ、複数サーバのGPUを効率的に連携させる分散学習環境を構築している。これにより、大量データを高速処理しながら並列学習を実現した。


 ベースモデルには「Qwen 2.5-7B」を採用し、学習データとしては同社が長年蓄積してきた研究報告書、製品組成情報、品質評価データなどを活用している。初期段階の評価において、過去の知見を踏まえた具体的な助言や、複数の事例を統合した回答を生成できることが確認され、既存ツールと比較して回答内容の網羅性が向上したと社内で評価されている。


 今後は、プレゼンテーション形式など構造化が難しいデータの整理・クリーニングを進め、対象データの拡充と品質向上を図る。経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)が推進する「Generative AI Accelerator Challenge」(GENIAC)で開発されている国産モデルの活用も検討しており、複数の技術的アプローチを通じて精度の向上を目指すとしている。



    ランキングIT・インターネット

    アクセス数ランキング

    一覧へ

    話題数ランキング

    一覧へ

    前日のランキングへ

    ニュース設定