生成AIのリスクに「生成AIで」どう対応する? NECの取り組みから探る

0

2024年09月24日 21:31  ITmediaエンタープライズ

  • チェックする
  • つぶやく
  • 日記を書く

ITmediaエンタープライズ

NEC セキュアシステムプラットフォーム研究所 所長の藤田範人氏

 生成AIがもたらすリスクに生成AIで対応する――。そんな技術の研究開発を進めているNECが、その取り組みについて2024年9月18日、研究開発拠点がある神奈川県川崎市中原区のNEC玉川事業場で記者説明会を開いた。今回はその内容を取り上げ、生成AIがもたらすリスクに生成AIでどこまで対応できるのかについて考察したい。


生成AIのリスクに「生成AIで」どう対応する? NECの取り組みから探る


●生成AIがもたらす「新たなセキュリティリスク」


 「当社が価値創造を支える事業ブランドとして推進している『BluStellar』(ブルーステラ)では、生成AIとセキュリティをキーテクノロジーとして挙げ、両分野の研究開発に注力している。今回の説明会では、特にこの両分野を掛け合わせた『生成AI×セキュリティ』における研究開発の取り組みを紹介したい」


 NEC セキュアシステムプラットフォーム研究所 所長の藤田範人氏は、説明会でこう切り出した。


 藤田氏によると、同社のセキュリティ分野における研究開発は「Truly Trusted」というコーポレートメッセージのもと、「あらゆるシステムが安全に守られ、正常に動作し続けることに貢献する技術を創出する」ことをミッションとして、「システムセキュリティ」「データセキュリティ」「AIセキュリティ」の3つのテーマについて取り組んでいる(図1)。


 その上で、同氏は「従来のAIのリスクに加えて新たなセキュリティリスクが顕在化するようになってきた」と指摘し、2024年4月に政府が発表した「AI事業者ガイドライン」から生成AIで特に顕在化したリスクをピックアップしたものを表1に示した。


 表1の内容について藤田氏は、「悪用と偽・誤情報のリスクは、生成AIが持つ非常に高いコンテンツの生成品質に起因している。また、ハルシネーションや機密情報の流出は、生成AIの出力が必ずしも制御できるものではないといった特性に基づくリスクだ」との見方を示した上で、「当社はこれらのリスク評価と対策技術によって生成AIリスクを低減し、解消するというアプローチで対応している」と強調した。


 今回の記者説明会では、表1の赤枠で囲まれた3つのリスクについて、それぞれの対策技術が紹介された。サイバー攻撃への悪用には「LLM(大規模言語モデル)を用いたセキュリティリスク診断」、偽・誤情報には「偽・誤情報分析」、ハルシネーションには「ハルシネーション対策機能」だ。それぞれの要点は以下の通りだ。


LLMを用いたセキュリティリスク診断


 LLMを用いたセキュリティリスク診断は、NECがこれまで培ってきたセキュリティリスク診断の知見や独自のサイバー攻撃リスク診断技術をLLMと組み合わせることで、対話形式によるセキュリティリスク診断のシステムを開発したものだ。利用者はLLMに対して簡単な指示文を入力するだけで専門知識がなくても脆弱性調査や攻撃診断、また対策の立案まで対応できる(図2)。


 藤田氏によると、「生成AIおよびLLMと当社のリスク診断技術との連携により、システムに対する攻撃リスクの診断結果を、対策を含めてレポーティングする」というのが特徴だ。


●NECの「偽・誤情報分析」「ハルシネーション対策」とは


偽・誤情報分析


 総務省の「インターネット上の偽・誤情報対策技術の開発・実証事業」の採択のもと、AIを活用してインターネット上の情報の真偽を多面的に分析し、ファクトチェックを支援する偽・誤情報分析技術の開発を開始した。実証事業の期間は2025年3月までだ(図3)。


 新たに開発する技術は、複数の種類のデータ(テキストや画像、動画、音声)で構成されるコンテンツが、偽・誤情報かどうかをAIで分析し、その内容の真偽を分析する。具体的なプロセスは次の通りだ。


1. 画像などが生成・加工されていないかどうかを検知する


2. 複数の種類のデータをAIで認識してテキスト化する


3. 2で認識したテキストの内容が正しいか、出典がある情報かどうか、データ間の矛盾(テキストと動画の内容が食い違っているなど)がないか


 上記を偽情報分析に特化したLLMで評価することで真偽を総合的に判定する。


 また、ファクトチェック機関の専門家が作成する報告書や記事に近い形式でレポートを作成し、信頼性の低い根拠の削除や新たな根拠として情報を加えるなど分析者の指示に応じた調整を可能とすることで、ファクトチェック業務の容易化・効率化を目指す構えだ。


 今後、開発した技術は日本ファクトチェックセンターなどのファクトチェック機関や放送局をはじめとするマスメディアにおいて実用性を検証し精度を向上させ、実用化を目指す構えだ。さらに、防災をはじめさまざまな業界での応用も検討していく考えだ。


ハルシネーション対策機能


 生成AIおよびLLMの出力に含まれるハルシネーションを検知し、確認作業を効率化する技術で、2024年10月末から順次提供を開始する予定だ(図4)。


 NECのテキスト分析技術およびLLMに関するノウハウを元に開発されたハルシネーション対策機能は、LLMが文章生成の元にした文章と生成した文章を比較して、食い違いがあった場合は矛盾箇所を提示する。単純な単語の比較だけでなく、文章の意味を比較して判断することが可能で、情報の抜け漏れや重複、元の文章と意味が変わった箇所などを提示する。同機能をLLMによる文章の要約に使うことで、要約前後の文章を比較してハルシネーションの有無の判定が容易になる。NECは、人的な確認作業の負担が軽減され、要約精度のさらなる向上が期待できるとしている。


 また、RAG(検索拡張生成)に代表される情報検索用途においても、LLMに質問して得られた文章に対して、その根拠となる元の文章を提示できる。LLMが生成した文章の正確性を効率的に確認するのも可能だとしている。


 これらの説明を聞いていた筆者に一つの疑問が浮かんだ。生成AIによる判断や考え方が偏っているかどうかを生成AIが判定することはできるのか。生成AIが、人間の判断や意思決定に大きな影響を与えるようになるであろう将来に備えるために質問した。セキュリティリスクではないかもしれないが、表1における「バイアスの再生成」と通底しているところもある重大な懸念事項だ。筆者のこの疑問に、藤田氏は次のように答えた。


 「生成AIの判断を生成AIでチェックするのは、なかなか難しいところがある。なぜならば、何をもってその判断が正しいのか、そう簡単に判定できないからだ。そうしたリスクについては、研究開発だけでなく法務や知的財産権などの部門とも連携してどのような対策を講じられるか、検討する必要があるだろう」


 正直、難しいことを尋ねていると思ったが、この分野の専門家である藤田氏がどう答えるか、聞いてみたかった。


 生成AIがもたらすリスクに生成AIで対応することは、ますます重要になるだろう。対応できない領域が広がれば、すなわちAIガバナンスが難しくなる。この話は企業、さらには社会のDX(デジタルトランスフォーメーション)を健全な方向に導く非常に重要なポイントになるのではないか。


○著者紹介:ジャーナリスト 松岡 功


フリージャーナリストとして「ビジネス」「マネジメント」「IT/デジタル」の3分野をテーマに、複数のメディアで多様な見方を提供する記事を執筆している。電波新聞社、日刊工業新聞社などで記者およびITビジネス系月刊誌編集長を歴任後、フリーに。主な著書に『サン・マイクロシステムズの戦略』(日刊工業新聞社、共著)、『新企業集団・NECグループ』(日本実業出版社)、『NTTドコモ リアルタイム・マネジメントへの挑戦』(日刊工業新聞社、共著)など。1957年8月生まれ、大阪府出身。



    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定