限定公開( 7 )

米Xは1月14日(現地時間)、X上のAI「Grok」が児童の性的画像や合意のないヌード画像を生成すると非難されていることを受け、Grokを更新し、「ビキニなどの露出度の高い服装をした実在の人物の画像の編集をGrokアカウントで禁止するための技術的対策を導入した」と発表した。
新たな安全対策は、有料かどうかにかかわらず、すべてのXユーザーに適用する。また、Grokの画像生成機能をすべて有料会員向けに制限、非課金ユーザーは画像を作成できなくなる。さらに、法的な規制がある特定の国や地域では「GrokアカウントおよびXのGrokを通じて、ビキニ、下着、その他類似の服装をした実在の人物の画像を生成するすべてのユーザー」をジオブロック(地域制限)する。なお、Grokの開発元であるxAIが提供するスタンドアロンのGrokアプリでは、無料ユーザーでも引き続き利用可能だ。
XとxAIのオーナーであるイーロン・マスク氏は自身のXアカウントで同日、「私はGrokによって生成された裸の未成年者の画像の存在を一切知らない」「画像生成を求められた場合、Grokは違法なものを一切生成することを拒否する。なぜなら、Grokの運用原則は、特定の国や州の法律を順守することだからだ」などとポストした。
この問題を巡っては、インドネシアやマレーシアがGrokを遮断し、英国でも正式調査が開始されていた。米カリフォルニア州も同日、xAIとGrokに対する調査開始を発表しており、Xによる発表は、同州の調査開始から数時間後のことだった。
|
|
|
|
|
|
|
|
|
|
|
|
Copyright(C) 2026 ITmedia Inc. All rights reserved. 記事・写真の無断転載を禁じます。
掲載情報の著作権は提供元企業に帰属します。

ドコモN504iの画像公開 SNS沸く(写真:ITmedia Mobile)154

ドコモN504iの画像公開 SNS沸く(写真:ITmedia Mobile)154