米AI大手、生成AIによる児童性的虐待コンテンツ作成を阻止する原則に署名

0

2024年04月24日 11:31  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

 児童性的虐待資料の拡散阻止に尽力している米非営利団体Thornと責任あるテクノロジーに焦点を当てた非営利団体All Tech Is Humanは4月23日(現地時間)、主要なAI大手と協力し、生成AIの悪用による児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)の作成と拡散を防ぐ「Safety by Design」原則を発表した。


【その他の画像】


 Amazon、Anthropic、Civitai、Google、Meta、Metaphysic、Microsoft、Mistral AI、OpenAIStability AIがこの原則に賛同し、署名した。


 これらの企業は、トレーニングデータセットにCSAMが含まれないことを保証し、CSAMを含む高リスクなデータセットを回避し、CSAM画像やCSAMへのリンクをデータソースから削除することを約束する。


 また、AIモデルの「ストレステスト」を実施してCSAM画像が生成されないことを確認し、子供の安全性が評価された場合にのみモデルをリリースすることを約束する。


 Thornは、生成AIにより、1人の児童性的搾取者が大量のCSAMを簡単に作成できるようになると主張。オリジナルの画像や動画をAIで改変し、新たなCSAMを生成する可能性があると警告する。


 Googleは公式ブログで、この原則を順守することに加え、2006年から加盟している米児童保護団体National Center for Missing & Exploited Children(NCMEC)の取り組みのために広告助成金を増額したことも発表した。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定