企業「ChatGPTは使っちゃダメ」→じゃあ自分のスマホで使おう──時代はBYODから「BYOAI」へ

1

2024年02月20日 08:21  ITmedia NEWS

  • 限定公開( 1 )

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真

 会社はChatGPTを禁止しているが、自分のスマートフォンからChatGPT(しかも有料契約している高性能版)にアクセスして、使ってしまえば良いではないか――。生成AIのビジネス活用が進む中で、そんな発想が生まれつつある。


【その他の画像】


 サイバーセキュリティ企業の米BlackBerryが2023年8月に発表した調査結果によると、職場でChatGPTやその他の生成AIサービスの禁止を実施、検討している企業の割合は、世界全体で75%に達するそうだ。調査後にはChatGPT、生成AI全般への注目度がさらに高まっていることを考えると、この割合はその後さらに上昇している可能性が高い。


 従業員が、社内の機密情報をChatGPTなどを入力した場合、それらの情報が外部サーバに送信されてしまうことになる。サービス提供者がその情報を自社のAIモデルの再教育に使用すれば、さらなる情報漏えいにつながる危険がある。いずれも企業内のセキュリティやコンプライアンス担当者にとっては看過できない事態だ。


 調査会社の米Forresterは、24年は従業員の60%が「自分の仕事やタスクを遂行するために“自分自身のAI”を使う」ようになるだろうとしている。つまり自分自身で契約したサービスを持ち込むなどして、会社が提供する以外のAIアプリケーションを仕事で使うようになるということだ。


●BYODならぬ「BYOAI」という発想


 Forresterはその理由として「従業員が組織のセキュリティポリシーを回避するのは、それが最も効率的な方法だと感じるからであり、AIについても同じことがいえる」としている。この話に個人的な心当たりがあるという方も多いのではないだろうか? その行為に関するリスクをいったん脇に置いて考えた場合、従業員のこうした思考は理解できるものだ。


 いまや多くのAIや生成AIサービスが登場し、日々進化して、数カ月前ですら信じられなかったような先端機能を提供してくれている。しかもその多くが無料か、有料だったとしても月額数百〜数千円程度で使用できる。また、オリジナル生成AIサービスを作れる「GPTs」のように、ユーザーの独自カスタマイズを可能にしているサービスも多く、自分が使いやすい環境を構築できる。


 何より素晴らしいのは、それを手元のスマホから利用できるという点だ。そんな状況で「早く仕事を仕上げろ、結果を出せ」とプレッシャーをかけられている従業員が、私用スマホから自費で契約している有料版ChatGPTにアクセスすることを、単なる社内ルールで抑え込めるだろうか?


 完全に抑え込むのが現実的でないのなら、せめて一定のルール内で使用してもらえるよう、部分的な解禁をしても良いのではないか? いまそんな発想が生まれつつあり、かつての自分のデバイスを持ち込むことを指す言葉「BYOD」(Bring Your Own Device)になぞらえて「BYOAI」(Bring Your Own AI)と呼ばれるようになっている。


 この言葉を誰が言い出したのかは定かではないが、Forresterは23年9月11日に「Bring-Your-Own-AI Hits The Enterprise」(持ち込みAIが企業を襲う)というタイトルのレポートを発表している。それ以前からもこの言葉を使っている記事はいくつか見られるので、23年から少しずつ定着しつつある概念のようだ。


 いずれにしてもBYOAIは、BYODが従業員に彼ら自身の情報端末を社内で利用することを許可するものだったように、従業員に自分で契約したAIツールやサービスを業務利用することを許可するものとなっている。


●BYOAIで会社も社員もみんな幸せ?


 これにはいくつかのメリットがある。まずは従業員の生産性向上が期待できるという点だ。AIの進化は日進月歩で、特に生成AI系サービスの進化の速さはご存じの通り。最新の機能をBYOAIで取り入れることで、他社に先駆けた革新的な業務効率化が可能になる。


 もちろん社内ChatGPTも従業員の生産性向上に役立つとはいえ、外部サービスに合わせて機能進化を続けるのは不可能であり、手当たり次第に最新機能を取り入れていては、逆に見えないリスクが増してしまうことになる。


 第2に、単なる生産性向上だけでなく、従業員主導のイノベーションも期待できる。AI技術に限らず、現場でどのような問題やニーズが生じているか、そしてその対応に情報システムがどう役立つかを把握するには、従業員も巻き込んだ調査が必要になる。


 それは往々にしてうまく進まないものだが、従業員自らがシステム活用を考えるのであれば、より革新的な使い方を考えられる可能性がある。しかもそのツールが、従業員自らがプライベートでも使っているものであればなおさらだ。また生成AIのように、新しい使い方の模索が必要な技術の場合、トライアル&エラーが行いやすいBYOAIのアプローチの方が、より適しているといえる。


 第3に、従業員満足度の観点からもBYOAIは望ましい。生成AIのように最先端のツールを使う人物は、そもそもそうした先端技術への感度が高く、それを使うことに喜びを感じるようなタイプだと想像できる。


 彼らに対して、頭ごなしに「これを使うな」というのは反発を招くだけだ。適切なルールを設けた上で解禁することは、彼らを満足させるだけでなく「君たちを信頼している」というメッセージを送ることにもなる。そうすれば、彼らからの協力を引き出し、将来的により好ましいBYOAIルールの制定や運営を行えることにつながるだろう。


●BYOAIのリスクと求められる対応


 もちろんBYOAIがもたらすのはメリットだけではない。従業員が自分で契約した外部AIサービスを職場に持ち込むことで、各種のリスクが生じると考えられる。まずいえるのは、セキュリティやプライバシーに関する問題だ。


 いくら高度なデータ分析を簡単にできるようになるからといって、会社の機密情報を外部サービスにアップロードするようなことがあっては、業務の効率化もイノベーションもあったものではない。他にもプライバシーや個人情報に関する各種法令の違反や、セキュリティ・プロトコルの違反、コンプライアンスに関する問題などが生じる懸念がある。


 第2に、従業員が独自のAIツールを使用することで、それを活用して作成した成果物の所有権はどうなるのか、またライセンス費用を誰が負担するかについて疑問が生じる可能性がある。特にコストについては、BYODでも生じていた難しい問題だが、BYOAIでも繰り返される可能性がある。


 第3に、従業員が当該AIツールに関する十分な知識を持たずに使用した結果、さまざまな倫理的・法律的な問題が生じる可能性がある。


 例えば、何らかのバイアスを持つAIを使ったことで、その出力に含まれる不適切なコンテンツに影響されてしまったり、使ったたAIが開発に当たって何らかの問題を抱えていた(違法労働による学習データのタグ付けや、著作権コンテンツの違法な収集など)ことで、規制当局からの取り締まりを受け、急に使えなくなってしまったりといった具合だ。


 従業員に外部サービスの利用を野放しに許可してしまうと、どのようなAIサービスが利用され、それぞれについてどのようなリスクが発生しているか、全体を把握するのは不可能になってしまう。


 以上がBYOAI導入によって考えられる主なリスクだが、前述のように、ルールがなくても従業員は最先端のツールを仕事で使いたがるものだ。であれば、こうしたリスクはBYOAIを追求することで生まれるというより「適切なコントロールが行われる形で個人AI利用を許可しなかった」ことで生まれるものともいえるだろう。


●理想のBYOAIを求めて


 では、どのような形であれば適切なBYOAIといえるのだろうか。まさにそれをいま、さまざまな企業やコンサルティング会社や、Forresterのようなシンクタンクが検討しているわけだが、おおむね次の3つのルールが唱えられているようだ。


 第1に、まず必要になるのが、当然ながら全体的・網羅的なポリシーの策定だ。BYOAIに関する明確な方針を示した上で、許容できるAIツールの範囲、倫理原則といった詳細を明らかにし、ツールの使用が企業ポリシーに合致し、各種法的義務に反しないようにしなければならない。またデータを適切に管理し、機密情報の漏えいが発生しないよう、BYOAIに関連するデータガバナンスポリシーを確立することも必要となる。


 第2には、これも当たり前の対応となるが、従業員に対する学習の場の提供だ。特にAIが倫理面で抱える問題や、個々のAI企業に対して懸念される法規制違反の可能性については、従業員個々人の対応に任せるだけでは不安が残る。そうした問題について背景情報や理論的知識を提供し、持ち込むツールの選定や許容できる使い方の判断など、従業員自らが適切な意思決定を行えるように学べる場が必要になるだろう。


 第3に考えなければならないのは、幅広い従業員からの協力と参画の実現だ。従業員任せでは適切な知識やスキルが確保されないという懸念がある一方で、管理部門の側も、いったい世の中にどのようなAIツールが出てきているのか、そのどれがどのような形で業務に活用される可能性があるかを把握するのは難しい。


 そこでBYOAIのポリシー策定や、持ち込みを許可するAIの選定などといった場面において、さまざまな部門の従業員に協力してもらうことで、効率的なオプションの選定と評価が可能になる。


 また彼らの協力は、ポリシーの穴を埋める際にも欠かせない。23年にChatGPTが話題になった際も「取りあえずWeb版ChatGPTへのアクセスを禁止しました」で安心してしまい、その後に出てきたBing ChatやBard(現Gemini)、Google SGEなどといった関連サービスへの対応が遅れる企業が見られた。


 従業員への学習の場の提供を適切に行い、彼らとBYOAIで協力関係を築いていれば「こういう新しいサービスが出てきているので手を打った方が良い」といったアドバイスを、従業員からいち早く手に入れることができるだろう。


 日々登場する高度なAIツールについて、どこまで業務利用を認めるのか。管理部門にとっては頭の痛い問題だが、ここで適切な仕組みを構築できれば、AIの次に来るテクノロジーにも柔軟に対応し、いち早くその価値を享受できるようになるだろう。その意味でも、BYOAIに取り組んでみる価値はあるはずだ。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定