OpenAIの現・元従業員ら、AIシステム構築の無謀さと秘密主義を告発

0

2024年06月05日 10:50  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

 米OpenAIの現従業員、元従業員のグループは6月4日(現地時間)、Google DeepMindの2人の従業員とともに、OpenAIを含むAI企業に対し、AIに関する安全性対策の改善と、危険性を報告した従業員の保護を求める書簡を公開した。


【その他の画像】


 署名した13人中4人はOpenAIの現従業員として匿名で記載されている。


 研究者が報復を恐れることなくAIの危険性について「警告する権利」を持てるよう、AI関連企業に強力な内部告発者保護を確立するよう求めている。


 「私たちは最先端のAI企業の現従業員および元従業員であり、AIが人類に前例のない利益をもたらす可能性を信じている」が、「AI企業には効果的な監督を回避する強い経済的インセンティブがあり、企業統治の特注構造ではこれを変えるのに十分ではないと考えている」という。


 グループは、「AI企業はAIの危険に関する膨大な非公開情報を保有しているが、こうした情報を政府機関に開示する義務はほとんどなく、ましてや社会に公開する義務はまったくない。(中略)この現状では、企業に責任を問えるのはほぼ現・元従業員のみだが、広範な秘密保持契約などにより、懸念を表明できない」とし、AI企業に求める“原則”を提示した。


 その中には、懸念を表明した現・元従業員に報復措置をとらないよう求める項目もある。


 OpenAIは自社の退職合意書に生涯にわたって元雇用主を批判することが禁じられており、この合意書への署名を拒否した場合、在職中に獲得したストックオプションなどのすべての既得権を失うという条項があると報じられた。サム・アルトマンCEOはこうした条項があったとは「知らなかった」とXにポストした。


 告発者グループの1人で4月にOpenAIを退社したダニエル・ココタジロ氏は、2022年にガバナンス研究者としてOpenAIに入社したが、「AGI時代に責任ある行動をとるという自信がなくなったため、OpenAIを辞めた」とオンラインコミュニティLessWrong上の自身のプロフィールに記している。


 同氏は15日、LessWrongに「AGIはおそらく2029年までには登場すると思う」と投稿した。


 この公開書簡には、2018年度のチューリング賞を共同で受賞したAI科学者、ヨシュア・ベンジオ氏とジェフリー・ヒントン氏、安全性について研究する非営利の研究組織Future of Life Institute(FLI)の顧問を務めるスチュアート・ラッセル氏が推奨者として名を連ねた。


 OpenAIの広報担当者は米New York Timesに対し「われわれは最も有能で安全なAIシステムを提供してきた実績を誇りに思っており、リスクに対処するための科学的アプローチを信じている。この技術の重要性を考えると、厳密な議論が不可欠であることには同意しており、今後も世界中の政府、市民社会、その他のコミュニティと連携していくつもりだ」という声明文を送った。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定