「責任あるAI」チームを再編した米Meta ビッグテックですら手探り、AI倫理に“最適解”はあるのか

0

2023年12月05日 08:21  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真

 米Metaは11月17日(現地時間)、同社内のレスポンシブルAI(Responsible AI、日本語では「責任あるAI」と訳される)チームの再編を発表した。


【その他の画像】


 レスポンシブルAIとは、AIの開発や運用、利用に当たり、それが倫理的に行われている状態を指す。またその実現に向けて企業が行動し、説明責任を果たすこと(例えば、関連する指針やガイドライン、ポリシー類の策定や、各種ガバナンス体制の構築・運用といった取り組み)を指す表現としても、この言葉が使われている。


 いま企業ではこうした取り組みを推進するため、レスポンシブルAIを担当するチームの設置や、担当部署の明確化を行うところが増えている。Metaもその1社で、レスポンシブルAIを実現するための施策を検討・推進するためのチームを設けていたのだが、その体制変更を発表したのである。


●なぜMetaはAIチームを再編したのか


 この体制変更を、MetaがレスポンシブルAIチームを「解体」したと受け取る関係者も多かったが、実際は先ほど表現したように「再編」と言う方が近かった。レスポンシブルAIチームに所属していたメンバーの大部分は、同社の生成AIチームに移動。残りのメンバーは、社内でAIを開発・運用するためのシステムやツールに取り組むAIインフラ部門に移動すると発表した。


 この件を報じたロイターの記事によれば、Metaは今回の再編について、レスポンシブルAIを担当するスタッフを「中核製品や技術の開発に近づける」ことが目的であると説明しており「AIが引き起こす事件・事故の防止に引き続き取り組む」としている。


 実際にMetaは近年、生成AIへの取り組みを強化している。オープンソースの大規模言語モデル(LLM)であるLlamaやLlama2を手掛け、OpenAIのGPTシリーズと競争する姿勢を見せている他、コード生成に特化したLLM「Code Llama」、画像生成AI「Emu」、動画生成AI「Emu Video」など次々に新しいモデルを発表している。


 また、こうした生成AIモデルの各種サービスへの組み込みも積極的に行っており、そこにレスポンシブルAIを担当する人々を配置するという決定は、理にかなっているといえる。


 このMetaの決定に懐疑的な声も挙がった背景には、最近の米Microsoftの動きがあった。2023年の初めに、Microsoftの内部で、AIに関する原則を製品開発に反映させることを担当していた「倫理・社会チーム」を全員解雇したことが報じられたのである。


●MicrosoftにもレスポンシブルAIチーム再編の過去が


 これは同社が実施した、約1万人を対象としたレイオフの一環として行われたものだった。一方でMicrosoftには、レスポンシブルAIに関する専任部署「Office of Responsible AI」も設置されており、こちらの組織は活動を継続していると同社は発表している。


 しかしOffice of Responsible AIが担当しているのは、AIに関する原理・原則の策定であり、それを製品開発レベルで実行に移すのが倫理・社会チームの役割だった。そのためレスポンシブルAIの実現という点では、一歩後退なのではないかと批判されたのだ。


 またこの解雇が行われたタイミングは、MicrosoftがOpenAI、さらには生成AI全般に対して多額の投資を行い、それに社運を賭けるかのような決断を下していった時期と重なっていたため「生成AIという先端技術の製品化にブレーキをかけかねない存在だった、倫理・社会チームが邪魔になったのではないか」と推測する声も見られた。


 ただTechCrunchの報道によれば、同社の倫理・社会チームは22年の時点で組織改編の対象となっていた。そのため23年に解雇が実施したときには、ごくわずかな人数しか残っていなかったようだ。倫理・社会チームのメンバーが22年時点でどこに再配属されたのかは明らかではないが、Microsoftは生成AI活用への大幅なシフトを進めている。Meta同様、生成AI関連の開発組織に組み込まれた可能性も高い。


 いずれにせよ、こうしたMicrosoftの動きがあったことで、Metaの発表に対しても「コストを削減したいだけなのではないか」「製品の安全性や倫理性より、製品化のスピードを重視したのではないか」といった臆測が生まれることとなったのである。


●生成AI時代に求められる、「レスポンシブルAI」実現方法の再考


 生成AIや基盤モデルなど、新しいタイプのAI、AI導入手法が登場したことで、既存のAIガバナンスは大幅な見直しを迫られている。


 企業が特定の目的に合致した、オリジナルのAIを自社開発する形式であれば、モデルの透明性や品質を維持し、その出力結果に一定の責任を持てる。しかし外部の企業や組織が開発した生成AIモデルを利用し、それを土台としてAIアプリケーションを実現する、すなわち基盤モデルによる生成AI開発の場合、モデルがブラックボックスとなってしまいがちだ。


 そこで実現されるアプリケーションも、以前とは比べものにならないほど汎用的であったり、幅広いインプットを許可するものであったりする場合が多い。これまでは一定の形式であると想定できた「推論データ」が、ユーザーがありとあらゆるスタイルやフォーマットで入力可能な「プロンプト」になってしまったわけである。


 その結果、既存のAIガバナンスで規定していた、透明性や説明責任を実現するプロセスがうまく機能しなくなる事態が起きている。それどころか、そもそも既存のプロセスが適応できないという場合も多い。


 最近では、大規模AIモデルを開発する際の倫理性や合法性も重視されるようになった。実際に米スタンフォード大学は、主要基盤モデル間の透明性を評価したスコアリングシステムと、それによる評価結果を発表している。


 一方、基盤モデル間の開発競争も激化しており、多種多様なモデルが現実的な選択肢として考えられるようになった。「猫も杓子もChatGPT(あるいはGPT-4)」というフェーズはとうに過ぎ、企業がそれぞれのアプリケーションに合った基盤モデルを選択したり、各ユーザーが目的に合った生成AIの実現形態を選んだりする時代が到来している。


 例えば、最近発表されたMicrosoftの「Copilot Studio」は、目的特化型の生成AIアプリケーションの実現を可能にするものだろう。また先日Microsoftが発表したモデル「Orca 2」のように、比較的小規模な言語モデルでも主要なLLMに匹敵する性能を出せる研究が進められており、モデルの多様化と細分化がさらに進むと予想される。


 その場合、既存のAIガバナンスでは想定していない、新たな状況への対応が求められる。基盤モデルの評価・比較検討はどうあるべきか、選んだモデルの透明性は十分か、モデルの切り替えやバージョンアップに求められるリスクコントロールなど、経営サイドでは少し前まで想像もしていなかった課題が、次々に生まれてくるだろう。


 そうした課題をいち早くキャッチし、対応策を検討するためには、開発・導入の現場とリスク管理側のスタッフが近い関係にあることが望ましい。その観点なら、Metaが行った「レスポンシブルAIチームを解体し、生成AI開発チームに統合する」という決断は、決して不当なものとは限らないだろう。生成AI時代にあるべきレスポンシブルAIの在り方を、Metaは模索しているのだと考えられる。


●AI倫理にいまだベストプラクティスはあらず


 とはいえMicrosoftもMetaも、その戦略的な意図を十分に説明しておらず、外部から見た場合には「生成AI開発というアクセルを踏むために、レスポンシブルAIというブレーキを取り除いたのだ」といわれてしまっても仕方がない。もし自分の勤めている回答が同じことをした場合も、同様の批判を浴びることだろう。


 大切なのは、AIを倫理的に使うというテーマにはまだベストプラクティスが存在していないこと、さらには生成AIや基盤モデルという新たなパラダイムが登場したことで、ガバナンスの在り方を再検討する必要があるのをきちんと説明し、その上で状況に柔軟に対応する姿勢だ。


 ガバナンスというブレーキは絶対に必要なものだが、まだ発展途上にある生成AI時代において、それをどのような形で設置するのが望ましいのかは、実践を通じて考えるしかない。そしてその過程を継続的に情報発信し、透明度を高め、ステークホルダー全体に向けて説明する姿勢が求められている。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定