ChatGPTに重要な情報を送っても安全か? 自治体のネットワーク分離モデルから考える

0

2024年09月09日 07:01  ITmedia ビジネスオンライン

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia ビジネスオンライン

Internet Archivesに残っている kawaguchi.com の当時のページ

 こんにちは。川口弘行です。私が自治体のデジタル化に関わる際には、個人としての川口弘行だけでなく、川口弘行合同会社という法人の立場も持っています。自分のフルネームを会社名にするというのは、他の人には理解されにくいようで、「え? これは個人事業ですか?」と尋ねられることもあります。


【画像】分離したネットワークと機密性の関係


 この会社名にした理由のひとつが、kawaguchi.com というドメイン名です。今から30年ほど前にこのドメインを取得して以来、ずっと使い続けています。取得した当時の日本は、電話回線のダイヤルアップでインターネットに接続していました。国内の個人向けプロバイダーは数えるほどしかなく、このドメイン取得は米国のエージェントを通じて行いました。


 インターネットが社会の基盤になるとは、想像もしていなかった時代の話です。


 さて、昔話はこの辺にして「自治体における生成AIの利活用」について考えてみましょう。前回の記事「プロンプトの悩み不要 自治体で使うべき『ChatGPT Plus』の機能とは?」では「生成AIが出力した回答の妥当性」について議論しました。


 AIの回答は単なる「意見」に過ぎず、それらの意見を慎重に検討し、最終的な判断を下すのは人間の重要な役割であるという点を強調しました。


 今回は「送信された情報の管理の問題」、つまり「ChatGPTに重要な情報を送信しても安全なのか?」という点について考察してみたいと思います。


 いくつかの自治体から、過去にこんな質問を受けたことがあります。


 「ChatGPTに重要な情報を送信しても安全なのか? 職員が誤って個人情報を送信してしまったら、どうするのか?」


 自治体は住民の方から個人情報を預かり、行政サービスを提供しているため、情報セキュリティ対策には非常に敏感です。また、ChatGPTのような「未知なるサービス」に対する漠然とした不安もあります。


 でも、よく考えてみれば奇妙な話です。送信してしまった個人情報というのは、どこからやってきた情報なのでしょうか? また、個人情報だけが重要な情報なのでしょうか? 多くの自治体はここで思考停止しているのかもしれません。これは生成AIの話題というよりも、むしろ自治体の情報セキュリティ対策に関する話題です。さっそく、詳しく見ていきましょう。


●自治体のネットワーク分離モデルから考える


 この問題は最終的に自治体の情報セキュリティポリシーの議論に行き着きます。全ての自治体は、自らの組織の情報セキュリティに関する振る舞いや取り扱いを情報セキュリティポリシーとして文書化し、これを順守することになっています。


 総務省では定期的に「地方公共団体における情報セキュリティポリシーに関するガイドライン」を改定し、全国の自治体に対して情報セキュリティポリシー策定や見直しの参考とするよう促しています。


 残念ながら多くの自治体はこのガイドラインをうまく活用できておらず、自分たちの情報リテラシーに応じた効果的な対策を打つことができていません。そこで、少しこの部分の考えを整理してみましょう。


 自治体の情報セキュリティポリシーでは、通常、取り扱う情報の機密性を3段階に分類して管理しています。多くの自治体では、「α(アルファ)型ネットワーク分離モデル」を採用し、インターネット系、LGWAN(総合行政ネットワーク)接続系、個人番号系――の3つのネットワークに分離した上で、職員が日常的に使用する端末はLGWAN接続系で運用されています。


 さらに、私が関与する自治体では、これらのネットワークを数字で管理しています。具体的には、ネットワークレベル1(インターネット系)、2(LGWAN接続系)、3(個人番号系)――という呼称を用いています。


 この数字による管理には明確な理由があります。


 分離されたネットワークのレベル(1、2、3)と、取り扱う情報の機密性(1、2、3)を1対1で対応させることで、管理をより簡潔かつ効果的にしているのです。


 例えば、機密性レベル1の情報はインターネット系、レベル2はLGWAN接続系、レベル3は個人番号系というように、明確に区分けして運用しています。このような運用が適切に行われていれば、職員は自分が現在どのレベルのネットワークで作業しているか、つまり、どの機密性レベルの情報まで扱うことができるのかという境界線が明確になります。結果として、職員はその境界線を理解し、順守すればよいという明確な指針を得ることができます。


 ここまで整理すると、先ほどの「ChatGPTに重要な情報を送信しても安全なのか? 職員が個人情報を送信してしまったら、どうするのか?」という質問の奇妙さが浮き彫りになります。


 ChatGPTはインターネット上のサービスであり、レベル1ネットワーク(インターネット系)からのみアクセス可能です。つまり、扱える情報の機密性レベルは1に限定されます。


 一方、個人情報は通常、機密性レベル3に分類されます。個人情報をChatGPTに送信するためには、まず機密性レベル3の情報をレベル3ネットワークから持ち出す必要があります。このような情報の持ち出しが日常的に行われているとすれば、ChatGPTへの懸念以前に、自身のセキュリティ運用体制を見直す必要があるでしょう。


 さらに、セキュリティ運用体制の見直しにおいては、ChatGPTを安全かつ効果的に活用するための具体的な実施手順の整備が不可欠です。


 自治体の情報セキュリティポリシーは通常、基本方針、対策基準、実施手順という三層構造の文書で構成されています。しかし、総務省のガイドラインは基本方針と対策基準の例示にとどまり、実際の運用方法を示す実施手順については明確な指針を提供していません。


 その結果、実施手順の策定が不十分な自治体も少なくありません。セキュリティ対策の形骸化を防ぐためには、ChatGPTの利用に限らず、全てのシステムや部署において詳細な実施手順を整備することが重要です。


 ちなみに先進的な自治体の中には、ChatGPT利用に関する独自のガイドラインを策定し、職員の順守事項を明確化しているところもあります。しかし、新しいサービスへの対応や将来の改定を考慮すると、個別のガイドラインを作成するよりも情報セキュリティポリシーの一環として実施手順を整備する方が、より効率的な管理が可能になるでしょう。


●ChatGPTを職員の端末からシームレスに使いたい


 ChatGPTの利活用を検討していくと、いくつかの課題が見えてきます。


・自治体によっては、インターネットに接続できる端末が限られているため、ChatGPTなどの外部サービスを気軽に使えない


・業務効率を高めるために、日常的な作業の中でシームレスにChatGPTを利用したい。例えば、作成中の文書をそのままChatGPTに入力し、回答をもらいたい


・実務に即した利活用のために、機密性レベル2の情報も扱えるようにしたい


 これらを解決するために、レベル2ネットワークにある職員の端末からシームレスにChatGPTを使う方法を考えてみましょう。


 総務省では「地方公共団体における情報セキュリティポリシーに関するガイドライン」の改定作業が進められており、新たなネットワーク分離モデルとして「α’(アルファ・ダッシュ)型モデル」というものが検討されています。


 これは、レベル2ネットワークから直接インターネット上の外部サービスを利用するために、いくつかの条件を満たした上で、その接続を認めていこうというものです。現時点で、満たすべき条件はいくつか挙げられていて、


(1)外部サービスとの間で安全な通信経路を保つこと。外部からの侵入を防ぐこと


(2)接続する外部サービスを限定すること


(3)外部からファイルをダウンロードする際には、無害化処理を行うこと


(4)接続する外部サービスは、ISMAP等の外部認証を受けたサービスとすること


となっています。


 当社では、この条件の(1)から(3)までを満たす「サニタイザーAIゲートウェイ」という製品を開発しており、すでにいくつかの自治体に導入を進めています。外部サービスとの通信を中継するゲートウェイサーバと、専用ブラウザ、ファイル無害化エンジンで構成されています。これにより、職員が普段使用する端末でChatGPT専用のブラウザを起動しておき、ChatGPTをシームレスに使えるようになりました。


 また、OpenAI社のWebサイトでは、ChatGPTなど自社のサービスについて、外部監査や認証を受けている旨を公開しています。ISMAPなど国内の認証ではありませんが、EUのGDPR、米カリフォルニア州のCCPAの認証を受けていることで、ひとまず信頼できる外部サービスと考えてよいのではないかと思います。


 これらの対策を講じることで、α’モデルによる接続を通じてChatGPTをレベル2ネットワークと同等の安全性を持つものとして扱うことが可能となります。その結果、機密性レベル2までの情報をChatGPTで取り扱えるようになります。


 さらにOpenAI社からの約款やプライバシーポリシーを見てみましょう。約款はいくつかありますが、業務で使用する場合に重要なのは次の2つです。


・ChatGPT(ビジネス向け)の利用約款 


・プライバシーポリシー


 これらを簡単に表現すると「ChatGPTは自らのサービス改善のためにデータを利用することがある(利用者側でそれを拒否することはできる)。しかし、個人を特定する情報は利用者の同意なしには共有されない」と解釈することができます。


 したがって、自治体でChatGPTを利用するのならば、


・α’モデルでの接続、利用により、ChatGPTをレベル2ネットワーク相当とする


・ChatGPT利用における、情報セキュリティポリシーに基づく実施手順を作成し、順守させる


・ChatGPT内で「サービス改善のためのデータ利用を拒否する」設定を行い、入力した情報をChatGPTに取り込ませない


 という組み合わせがよいのではないかと思います。


 次回は、3番目の論点である「生成された文章に対する評価者側の問題:AIが生成した文章だからダメという理屈は通用するのか」について考えてみましょう。



    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定