1. トップ
  2. 新着ニュース
  3. 社会
  4. 社会

「芸能人200人がポルノ合成の餌食に」アイコラとは段違いのディープフェイクの怖さ

プレジデントオンライン / 2020年10月12日 15時15分

※写真はイメージです - 写真=iStock.com/kuppa_rock

女性芸能人の顔写真を合成した偽のアダルト動画で、国内初の逮捕者が出た。ITジャーナリストの高橋暁子氏は「昔のアイドルコラージュとは比べものにならない高精度。ディープフェイクと呼ばれる動画は1年半で6倍に増えており、決してひとごとではない」という――。

■ディープフェイクで偽のアダルト動画、初の逮捕者

ディープフェイク動画をご存じだろうか。AIのディープラーニングとフェイクを足し合わせた造語だ。AI技術を使って別の画像を合成し、本人が出演した本物の動画と見分けがつかないほどそっくりな偽(フェイク)の動画のことだ。

この技術を悪用したとして、10月に国内初の逮捕者が出た。女性アイドルや女優の顔写真をアダルト動画に合成し、インターネット上で配信。名誉毀損と著作権法違反の疑いで男3人が警視庁などに逮捕された。

警視庁によると、被害に遭った女性芸能人らは約200人に上り、3500本以上のアダルト動画が見つかったという。芸能プロダクションなどが声明を出す事態になった。

実はこの被害は、一般人にも広がり始めている。ディープフェイク動画の実態とひとごとではないリスクについて解説したい。

■偽動画をばらまかれた一般女性も

ディープフェイク動画というと新しく聞こえるが、言わば動くアイコラと言ってもいいだろう。顔をすげ替えられた画像を使ったアイコラ被害に遭った一般女性は多い。

ある20代女性は、たまたま見つけた友人からの連絡で、SNS上に自分のアイコラポルノ写真が掲載されていることに気づいた。

スマートフォンの画面を見る女性
写真=iStock.com/GCShutter
※写真はイメージです - 写真=iStock.com/GCShutter

女性はすぐに削除依頼したものの、「あの画像がまだどこかに残っているかもしれないと考えると不安になる」という。

「色とか向きが不自然な写真だったから本物じゃないと気づいてもらえたけれど、自然だったら本人と思われて信じてもらえなかったかもしれない」

ディープフェイク動画は、目や口など表情や動きなども連動しており、本人と見間違うものが多い。ばらまかれたのがアイコラ写真だったから見破ることができたが、もしディープフェイク動画だったらどうだっただろうか。

冒頭でご紹介した例では名誉毀損罪などでの逮捕となったが、作成だけでは罪に問えないのが現状だ。

実際海外では、一般人を素材にしたディープフェイクポルノ動画が出回り始めている。あるオーストラリア人の20代女性は、10代だった8年前に検索しているときに自分のディープフェイクポルノ動画を発見。複数のポルノサイトに動画が投稿されていることに気づいたという。「誰が何のために投稿したのかはわからない。非常に傷ついたし、全部消せたとは思えない」

■本物と見分けられないディープフェイク動画

有名本物と見分けられないディープフェイク動画なディープフェイク動画といえば、オバマ前大統領のものだろう。最後に俳優兼監督のジョーダン・ピールが現れ、ディープフェイク動画であることが明かされる動画を見たことがあるかもしれない。

動画内でオバマ前大統領は、「トランプ大統領はとんでもない間抜けだ(President Trump is a total and complete dipshit)」と、らしくないことを言っている。

「ディープフェイク」という言葉は、「深層学習(Deep learning)」と「偽物(fake)」を組み合わせたものだ。由来は2017年にさかのぼる。「Deepfakes」という名前のRedditユーザーが、エマ・ワトソンやケイティ・ペリーなどのハリウッド女優の合成ポルノ動画を公開したのだ。

日本での摘発例もそうだが、著名であれば声明を出して自分ではないと明らかにし名誉を守ることができる。しかし、無名の一般女性の場合はどうだろう。自分ではないと言っても信用されるかどうか。一般人である方が、甚大な名誉毀損被害につながる可能性さえあるのだ。

■ディープフェイク攻撃で金銭被害

DeepTrace社の調査結果によると、2020年6月にネット上で確認されたディープフェイク動画は約4万9000件あり、18年12月の約8000件から6倍以上に大幅増加している。

映像が悪用された分野はエンターテインメント業界が60%以上ともっとも多く、96%がポルノ動画に合成された。国別では、米国が半数を占め、英国(10.9%)、韓国(9.6%)、インド(5%)、日本(4%)と続く。

政治系のディープフェイクは4%で割合こそ少ないが、悪用によって騒動になった例も少なくない。たとえばマレーシアでは2019年に、閣僚が違法の同性愛行為をしているフェイク動画を拡散されてしまった。動画の内容によっては信用を失墜させたり、冤罪を着せたり、株価を操作したりすることもできてしまうのだ。

ディープフェイク攻撃によって、金銭的被害も出ている。2019年3月、英国のエネルギー会社の最高経営責任者(CEO)が、ドイツの親会社のCEOからの電話による指示でハンガリーの企業口座に22万ユーロ(約2600万円)を送金した。

ところが、これはCEOではなく、ディープフェイクボイスともいうべき合成された声による犯罪者からの指示だったというわけだ。

ディープフェイク動画を作成する技術は、映画撮影などにも活用されている。しかし残念ながら、このように犯罪などに多く利用されてしまっているのが現状だ。

■誰でもアプリで作成できる手軽さ

ディープフェイク動画は誰でも簡単に作れるようになっている。一般人でも専用のソフトウエアを使えば簡単に作成できる。4~6時間程度あれば、一本の動画が作成できてしまうのだ。手軽に作れるようになったことで、近年その数は急増している。

顔写真1枚でディープフェイク動画を作れるアプリもある。2019年に登場したディープフェイク動画が作れるアプリ「ZAO」は、9月に中国向けApp Storeで無料アプリの人気ランキング1位になった。

同アプリのプライバシーポリシーは「ユーザーが作成したすべてのコンテンツに対して、開発者が権利を保有する」となっていた。そこで、「作成されたディープフェイク動画が同意なしに使用される可能性がある」と批判が集まり、開発会社がポリシーを変更する騒ぎとなった。

日本でも「FakeApp」というアプリが人気となったが、やはりパソコンで映画などの動画に自分の顔を当てはめた映像を作ることが可能だ。ばらまかれたときの被害は大きいにもかかわらず、誰でも簡単に作れてしまうのだ。

■「真実か否かがわからない」例も

2016年の大統領選直前、トランプ氏がNBCの番組の収録現場で「スターならやらせてくれる。何でもできる」などと卑猥な女性蔑視発言をする動画が流出。トランプ氏は当初、この発言を認めていたものの、大統領就任後に上院議員や側近に「動画はディープフェイク動画だった」と言っている。このように、不都合な動画などを「ディープフェイク動画」と主張する例も出てきている。

ソーシャルメディアでのフェイク動画拡散を防ぐため、Facebookはディープフェイク動画を削除する方針をとるなど、SNS企業も対策を進めている。本物かどうかを見破るAIもないわけではなく、米Microsoftなどが動画の偽造を自動検知するソフトを発表している。しかし、話はそう単純ではない。ディープフェイク動画を作成する技術も年々精度を増しているためだ。

少し前までは、ディープフェイク動画は瞬きが少ないのでわかると言われていた。しかし、最近は瞬きで見分けることはできなくなっている。現状、確実にフェイクとわかるための方法はないし、たとえ今はわかっても今後は本物と見分けがつかなくなる可能性がある。

■高精度のディープフェイク動画から身を守るには

精度の高いディープフェイク動画を作成するためには、大量の写真や動画が必要だ。SNSでそのようなものを不特定多数に公開していると、このようなものを作成されるリスクにつながることは忘れてはならないだろう。

ディープフェイク動画の登場で、たとえ動画があっても、その情報が真実か否か見分けることが難しくなっている。ディープフェイク動画というものが存在することを知り、たとえ気になる動画があっても即座に信じないことが大切だ。安易にシェアなどはせず、本物かどうか確認する癖をつけるべきだろう。

----------

高橋 暁子(たかはし・あきこ)
ITジャーナリスト
情報リテラシーアドバイザー、元小学校教員。書籍、雑誌、webメディアなどの記事の執筆、コンサルタント、講演などを手がける。著書に『ソーシャルメディア中毒』『できるゼロからはじめるLINE超入門』ほか多数。「あさイチ」「クローズアップ現代+」などテレビ出演多数。

----------

(ITジャーナリスト 高橋 暁子)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください