「フェイクポルノ」初摘発、AIで「芸能人の顔」を合成…アイコラと同じ法的論点も

弁護士ドットコムニュース / 2020年10月4日 9時53分

写真

関連画像

人工知能(AI)を使って、ポルノ動画の出演女優の顔を女性芸能人の顔にすりかえ、ネット上に公開したとして、大学生とシステムエンジニアの男性2人が10月2日、名誉毀損などの疑いで警視庁と千葉県警に逮捕された。

報道によると、男性2人は、自分たちのウェブサイトで、すりかえ加工したポルノ動画を約400本公開し、動画の販売料などで約80万円以上の収益を得ていた。技術の進歩で、本物と見分けがつかなくなったような動画は「ディープフェイクポルノ」と呼ばれる。

ディープフェイクポルノをめぐって摘発されるのは、全国で初めてということだが、具体的にどのような法的問題があるのだろうか。小林正啓弁護士に聞いた。

●名誉毀損罪が成立する可能性が高い

――報道によると、名誉毀損の疑いで逮捕されました。

女優に限らなくても、本人の承諾を得ないで、他人の顔画像とポルノ映画を合成して、一見見分けがつかないようなものを作成して公開すれば、刑法上、名誉毀損罪が成立する可能性が高いと考えられます。

なぜなら、現代日本において、ポルノに出演したことがあるという事実は、その人の社会的評価を低下させることといえるからです。

裁判例としては、アイドルタレントの顔写真とヌード写真を合成したアイコラ画像をネット掲示板に掲載した人について、名誉毀損罪の成立を認めたものがあります(東京地裁平成18年4月21日判決)。

被害者が女優である場合、偽計業務妨害罪が成立する可能性もあります。今回のケースは、アイコラ問題と同様に考えてよいと思います。

ただし、名誉毀損罪が成立するのは、その動画を閲覧すれば、その人がポルノに出演していたと誤解するような場合です。故意に、あるいは合成技術が未熟であることによって、明らかに合成とわかる動画を作成した場合、名誉毀損罪は成立しません。この場合には、侮辱罪の成立が問題となるでしょう。

●「技術悪用の可能性が高まっている」

――今後、民事責任を問われる可能性もありそうです。

民事上は、一見して合成とわからないような動画を作成して公開した場合、不法行為として、名誉毀損に基づく損害賠償請求権が認められるでしょう。ほかにも、肖像権の侵害や、被害者が女優である場合にはパブリシティ権の侵害に基づく損害賠償請求権が認められることになるでしょう。

また、ポルノにも著作権は発生しますから、その制作者などに対して、著作権法上の責任を負うことになります。

この記事に関連するニュース

トピックスRSS

ランキング