1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

米AI大手、生成AIによる児童性的虐待コンテンツ作成を阻止する原則に署名

ITmedia NEWS / 2024年4月24日 11時19分

写真

 児童性的虐待資料の拡散阻止に尽力している米非営利団体Thornと責任あるテクノロジーに焦点を当てた非営利団体All Tech Is Humanは4月23日(現地時間)、主要なAI大手と協力し、生成AIの悪用による児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)の作成と拡散を防ぐ「Safety by Design」原則を発表した。

 Amazon、Anthropic、Civitai、Google、Meta、Metaphysic、Microsoft、Mistral AI、OpenAIStability AIがこの原則に賛同し、署名した。

 これらの企業は、トレーニングデータセットにCSAMが含まれないことを保証し、CSAMを含む高リスクなデータセットを回避し、CSAM画像やCSAMへのリンクをデータソースから削除することを約束する。

 また、AIモデルの「ストレステスト」を実施してCSAM画像が生成されないことを確認し、子供の安全性が評価された場合にのみモデルをリリースすることを約束する。

 Thornは、生成AIにより、1人の児童性的搾取者が大量のCSAMを簡単に作成できるようになると主張。オリジナルの画像や動画をAIで改変し、新たなCSAMを生成する可能性があると警告する。

 Googleは公式ブログで、この原則を順守することに加え、2006年から加盟している米児童保護団体National Center for Missing & Exploited Children(NCMEC)の取り組みのために広告助成金を増額したことも発表した。

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください