1. トップ
  2. 新着ニュース
  3. ライフ
  4. カルチャー

芸能人の被害は200人以上か!? 一般人の顔もポルノに…深刻化するディープフェイク問題、日本で規制が進まないワケ

集英社オンライン / 2024年10月1日 17時0分

韓国では最近、女性芸能人のみならず、一般人の女性の顔を性的な動画と合成させたフェイク動画の作成・拡散が問題となっている。こうした「ディープフェイク」は日本において、どれほど問題視されているのか。情報法が専門で、ディープフェイクの問題に詳しい明治大学教授の湯淺墾道氏に話を聞いた。

【画像】ディープフェイク動画の拡散背景にあるのはこれだった!

「ディープフェイク」日本で最も多い使用例は…

そもそもディープフェイクとは、機械学習アルゴリズムの1つであるディープラーニングを使って、2つの画像や動画を合成させ、元のものとは異なる動画を作成する技術を指す。

しかし、現代では、ある人物が実際には行なっていない行動や言動をあたかも行なっているかのように見せる「偽動画」を指す用語として使われることが多い。

ディープフェイク関連の性犯罪が深刻な韓国では、今年8月、性的なディープフェイクを所持および購入するだけでなく、単に視聴する行為も処罰の対象とした。

またディープフェイク物の製作や流通に対する処罰基準も懲役5年から7年に強化し、規制が進んでいる。

では、日本におけるディープフェイクに関連する事件にはどのようなものが多いのか。

「韓国と同様、アダルトコンテンツにディープフェイクが使われることが多いのではないかと思います。日本でも事件として立件されたケースが、芸能人の顔を使用したアダルト動画の作成です。

この事件は、2020年10月のディープフェイク関連一斉取り締まりが行われたときに、著作権侵害と名誉棄損の容疑で逮捕者が数名出ました」(湯淺氏、以下同)

2020年10月2日、熊本県に住む大学生と、兵庫県に住むシステムエンジニアの男が、AV出演者の顔を女性芸能人とすり替えた動画などを動画サイトにアップしており、芸能人の名誉を傷つけたことや、AV制作会社の著作権を侵害した疑いで逮捕された。

そしてこの事件がディープフェイク関連での逮捕例としては日本で初めてだった。

2020年時点で国内には3500本以上の動画が…

警視庁によると、2020年10月の一斉パトロールの時点で、国内ではフェイクポルノに無断で顔を使われた日本の芸能人は約200人にのぼり、作成された動画は3500本以上にのぼっていたという。

また湯淺氏は、こうしたアダルトコンテンツにおけるディープフェイクの犯罪を検挙することの難しさについてこう語る。

「実はディープフェイクによる被害というのは、実態がわかりにくいんです。というのも、ディープフェイクで作成した動画像、主にアダルトコンテンツなどは、基本的に仲間内だけで共有されることが多く、被害が顕在化することが少ないのです」

湯淺氏はディープフェイク関連の被害が顕在化しにくい他の原因についてもこう言及する。

「現状ディープフェイクによる被害は、名誉を傷つけたことについては被害者の告訴がなければ事件にならない『親告罪』となっています。

つまり被害者が訴えなければ事件化できないわけですが、芸能人であれば所属事務所がインターネット上のコンテンツの調査をしていることも多いので、事件化するケースも多いですし、アダルトビデオの制作会社が著作権侵害で訴えるケースも見られます。

しかし、一般人の顔を使用したフェイクポルノなどを事件化できたケースは少ないと推測します。

なぜなら一般人の場合、動画製作者側は個人的な趣味として自分だけが所持している場合が多く、被害者は自分の顔がポルノに使われているということにすら気づくことが難しいからです」

日本で違法となっている児童ポルノ、ディープフェイクの場合は処罰が難しいワケ

日本では児童ポルノ禁止法によって、18歳未満の児童のわいせつな写真や動画を製作・所持・提供することなどが処罰の対象となっているが、こうした児童ポルノのディープフェイクに関しては処罰の対象にならないのだろうか。

「現状、生成AIによって作られた動画像は、たとえ未成年のように見える被写体であったとしても処罰することが難しいんです。

理由としては、アニメ等の創作物は、未成年のように見えるものであったとしても、児童ポルノ禁止法が適用されないからです。マンガやアニメのような創作物で児童のように見えるものを規制するべきかについては、賛否両論があります。

また、実在する女性の顔を、生成AIで作成した未成年者を思わせる被写体のわいせつな動画と合成させても、その実在する女性が成人であれば児童には該当しないので、児童ポルノ禁止法が適用されず、処罰できないということになるのです」

やはり現状、性犯罪のディープフェイクを処罰できる唯一の方法は、被害者が直接訴えることしかないということだ。しかし、こうした犯罪の逃げ道を放っておくことは被害の拡大を助長するだろう。現段階で何か対策は講じられているのだろうか。

「児童ポルノ禁止法を、生成AIによって作成したものや、アニメ、コミックなどの範囲にまで適用するかどうかは現在議論の段階なのですが、日本において『表現の自由』は憲法で定められている国民の大事な権利であり、これを軽々しく制限することができないということが、なかなか規制が進まない要因の1つになっています。

こうした背景から、今後は動画像の製作者を罰するよりも、生成AIを運営する事業者に対して、AIでポルノを作成できないよう自主規制させる可能性のほうが高いと予想しています。

実際、ChatGPTなどの生成AIでは、爆弾の作成方法や殺人の方法など、犯罪につながるような質問を聞かれても答えないように自主的に規制されています。こうした方法でポルノによる被害も減らしていくことができるのではないでしょうか」

SNSの収益化がもたらした「災害デマ」の問題

ディープフェイクの問題はポルノだけにとどまらない。例えば2023年11月には岸田首相がニュース番組のような雰囲気のなかで、卑猥な言葉を発しているディープフェイク動画がSNS上で拡散され、物議を醸した。

湯淺氏によればこうしたSNSでのディープフェイク動画の拡散が問題となっている背景には、SNSの「収益化」が関係しているという。

「現在、X(旧Twitter)などをはじめとするSNSではインプレッション(投稿の表示回数)などに応じて収益が得られる仕組みになりました。このことにより、ユーザーたちはよりセンセーショナルで、注意を引くような投稿を行なう傾向が強くなっています。

例えば、地震や大雨などの自然災害が起こったときには、実際の現場の被害状況をより誇張したような動画をわざと投稿し、閲覧数を稼ぐことなどが問題視されています。

しかし、現在ではスマホで簡単に画像や動画が加工できる時代であるため、そういった投稿をデータ解析するだけでは、ディープフェイクであるかどうかの判断が難しいのです」

――ディープフェイクは深刻な性犯罪を助長することのみならず、災害デマや政治的利用によって社会的混乱を巻き起こす要因ともなっている。

今後政府はディープフェイク問題にどのように立ち向かうのか、早急な対応が求められている。

取材・文/瑠璃光丸凪/A4studio 写真/Shutterstock

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください