NEC、ハルシネーション対策を強化 「生成AI活用が難しい現場」で利用促進

0

2024年09月30日 21:51  ITmedia ビジネスオンライン

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia ビジネスオンライン

NECで執行役 Corporate SEVP 兼 CDO 兼 デジタルプラットフォームビジネスユニット長を務める吉崎敏文氏(撮影:乃木章)

 NECは10月末より、大規模言語モデル(LLM)の信頼性を向上するハルシネーション対策に関連する機能を順次提供する。同機能は、自社開発の生成AI「cotomi」や「Microsoft Azure OpenAI Service」にも適用でき、幅広い用途への活用を見込む。正確性が求められる業務や生成AIの活用が難しいとされた現場での利用を促進し、顧客の業務変革を支援する。


【その他の画像】


●テキスト分析技術と「LLMノウハウ」で開発 具体的な中身は?


 生成AIの急速な発展に伴い、多くの企業や公共機関で、生成AIを活用した業務改革の検討や検証が進む。その需要は今後も増加するとみられる一方、生成AIが事実に基づかない情報を作り出す「ハルシネーション」(幻覚)が起きている。


 医療や金融など、情報の正確性が求められる分野ではハルシネーションへの対策として、生成された文章を人手で検証せざるを得ない。これによって業務効率化が妨げられている現状がある。


 今回の機能は、NECのテキスト分析技術とLLMに関するノウハウを元に開発された。文章生成の元となった文章と、生成AIが生成した文章を比較し、齟齬がある場合は矛盾箇所を提示する。


 単純な単語の比較だけにとどまらず、情報の抜け漏れや重複、文章の意味を比較して判断できるようにした。同機能をLLMによる文章の要約に用いることによって、要約前後の文章を比較しハルシネーション有無の判定が容易になるという。


 その結果、人的な確認作業の負担を軽減し、要約精度の向上も期待できる。RAG(Retrieval Augmented Generation、検索拡張生成)のような情報検索用途でも、LLMに質問し得られた文章に対して根拠となる元の文章を提示できるので、生成された文章の正確性を効率的に確認することが可能だ。


 NECは今後、LLMの信頼性を向上させるため、人物名や地名などの固有表現の一致度合いをスコア化する機能や、文章の一貫性を検証する機能なども追加する予定だという。ハルシネーション対策機能を強化するとともに、オンプレミス環境への適用も視野に入れている。


 NECはDXに関して、ビジネスモデル、テクノロジー、組織・人材の3軸で、戦略構想コンサルティングから実装に導くオファリングなど、End to End(上流から下流まで)のサービスを提供している。従来型のSIerから「Value Driver」への進化を目指し、その価値創造モデルを「BluStellar」(ブルーステラ)として体系を整理した。


(小松恋、アイティメディア今野大一)



    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定