1. トップ
  2. 新着ニュース
  3. ライフ
  4. ライフ総合

知識があれば「AIフェイク顔」は見分けられる…「背景、服やメガネ、口元」の順番にチェックするべき理由

プレジデントオンライン / 2023年2月28日 10時15分

※写真はイメージです - 写真=iStock.com/themotioncloud

AI合成の人物画像を見抜くには、どうすればいいのか。東京工業大学の笹原和俊教授は「たしかにクオリティは高いが、コツをつかめばAI技術で生成した顔画像を見抜くことはできる。まずは背景に注目するといい」という――。

※本稿は、笹原和俊『ディープフェイクの衝撃』(PHP新書)の一部を再編集したものです。

■AIが作った「フェイク画像」と本物の画像を見分ける実験

2022年、米国科学アカデミー紀要に、ディープフェイクに関する驚くべき実験結果を示す論文が掲載された。マサチューセッツ工科大学とジョンズ・ホプキンス大学の研究グループは、GAN(敵対的生成ネットワーク)と呼ばれるAIアルゴリズムを用いて偽の顔画像を作成し、400人の実在の顔と400人の偽の顔を用意して、それらを用いて複数の被験者グループで異なる条件で実験を行った。

GANはニセ画像を生成する「生成器」と、真贋を判定する「識別器」の2つのニューラルネットワークから構成されている。これらを互いに競わせ学習させることで、最終的には本物そっくりの画像を生成できるようになるという仕組みだ。

実験1では、被験者315人に対して、128枚の画像の中からランダムに顔画像を提示し、本物か偽物を見分けるように指示をした。その結果、本物と偽物の顔の識別の成功率は約48%だった。二択であれば、当てずっぽうにやったとしても成功率は50%なので、それよりも悪い結果である。

実験2では、被験者219人に対して、同様に128枚の顔画像を本物か生成画像かを判定する課題を課したが、それぞれの試行ごとに正解か不正解かが提示された。これには、見分ける練習をさせるという意味合いがある。しかし、このような顔の見分け方を学習する機会が与えられても、ディープフェイク顔の識別能力はさほど改善されず、成功率は約59%だった。

■「平均顔」に近いほうを人は信頼してしまう

実験3では、被験者223人は128枚の顔画像の中から信頼性の高いものを選び、1(非常に信頼できない)から7(非常に信頼できる)までの評価を行った。その結果、信頼性に関して、実在の人物の平均評価は4.48であったのに対し、ディープフェイク顔は4.82となり、後者のほうが信頼性が高いという結果となった。

人は平均的な顔のほうが、より魅力的で信頼できるという説がある。訓練したGANが作り出す顔画像が平均顔に近いために、ディープフェイク顔のほうがより信頼できると感じられたのかもしれない。

たくさんの人物のポラロイド写真
写真=iStock.com/filadendron
※写真はイメージです - 写真=iStock.com/filadendron

以上の結果をまとめると、人はディープフェイク顔を識別することが苦手で、練習をしても大幅な識別の上達は見込めず、さらに、ディープフェイク顔をより信頼する、ということになる。

もちろん現実世界では、画像だけでなく、それが使用される文脈やその他の言語的・非言語的情報が手がかりになるので、この実験結果を過度に一般化することは禁物だ。しかし、人は自分のフェイクを見抜く能力を過信しがちなので、合成顔が悪意のある目的に使用された場合、効果的である可能性がある。このことは、ディープフェイクに備えるためにも念頭に置いておきたい。

■意識的に見分けるのは難しい

同じく2022年、シドニー大学の研究グループが、人は意識的にはディープフェイクの真贋を見分けることができなくても、無意識的にはできるかもしれないことを示す、興味深い研究結果を発表した。

同研究グループは、被験者を2つのグループに分け、グループ1には、ディープフェイクの顔写真と本物の人間の顔写真を50枚用意して、本物か偽物か判定してもらった。グループ2の被験者たちには、同じデータセットの顔写真をただ見てもらい、その間の脳波を測定した。ただしグループ2には、顔写真にディープフェイクが混ざっていることは知らされていなかった。

その結果、グループ1の被験者たちの正解率は37%と低かった。でたらめに答えたとしても正解率は50%になるはずだが、それを大きく下回る結果となった。さらに、単にディープフェイク顔を見抜けなかっただけでなく、偽物の顔写真のほうを本物だと答える傾向があることがわかった。つまり、人は意識的にディープフェイク顔を見抜くことが難しく、偽物の顔にリアリティを感じてしまうということを示唆(しさ)している。ここまでは、先ほど紹介した実験と同様の結果だった。

■脳はディープフェイクに気づいている?

しかし、グループ2の脳波の測定結果は意外なものだった。グループ2の被験者たちが顔写真を見ているときの脳波(EEG)を分析したところ、本物と偽物の顔写真では、異なった脳波が観測された。これはつまり、本物と偽物の顔写真では、脳内の情報処理に違いがあるということを示唆している。

笹原和俊『ディープフェイクの衝撃』(PHP新書)
笹原和俊『ディープフェイクの衝撃』(PHP新書)

さらに、特定された脳波をもとに見積もった正解率は54%となり、正解率がでたらめに答えるよりも高い結果となった。たった4%の差と思うかもしれないが、統計学を用いて検定した結果、有意な差だということが明らかになった。これはつまり、本物と偽物が混ざっていると知らされていないにもかかわらず、被験者の脳は本物と偽物の違いに反応していたということになる。

では、なぜ脳の無意識レベルの反応と意識レベルの回答が異なってしまったのだろうか。私たちの脳では、情報を処理する過程で様々な情報と統合され、高次の情報や記憶との照合が行われるため、本物とディープフェイクの顔画像の区別は、情報処理が進むにつれてそれが曖昧になり、答える段階ではその情報が失われてしまったのではないかと推察されている。

同研究グループは、今後、脳の持つ偽画像の検出の仕組みが解明できれば、ディープフェイクによるリスクを抑止できる可能性があると述べている。しかし、ディープフェイク技術は、本物の人間かどうかを検知する人間の無意識すらも、だましてしまうようなものに進化を遂げつつある。

■注意して見れば偽物と見抜けるものも

フェイク画像を見破るAI技術で生成したコンテンツは、人が見抜けないほどのリアリティを手に入れた。とはいえ、全部が全部クオリティが高いわけではなく、注意して観察すれば、合成された偽物だと見抜けるものもある。

国際ニュース通信社ロイターの記事によると、ディープフェイクは一般的に人を模倣するのが得意だが、人工的に生成された多くの顔画像には、目、耳、口の周りに特徴的な不具合が残っていることがある。また、服装やアクセサリーや背景など、顔以外に合成された痕跡が残っていることがある。

■最初にチェックすべきなのは背景の「ゆがみ」「うねり」

AI技術で生成した顔画像を見抜くためのコツを解説する。まず、背景を確認してほしい。壁のタイルや継ぎ目がうねったり、背景がゆがんだり、消えたりしているように見える場合、GANなどで合成された画像であることが疑われる。

洋服や装飾品などの身に着けているものも確認しよう。メガネのフレームが左右非対称になったり、イヤリングが不自然な配置になっていたり、シャツの襟(えり)におかしな折り目があったりしたら要注意だ。

次に、人物の顔を確認してほしい。GANによって作られた口は、しばしば形が崩れて見え、歯が余っていることもある。また、額から髪の毛が生えたり、耳や首から髪の毛が飛び出したりしている。顔を照らす明るい光が、異なる角度から同時に目に当たっているように見えるのも、GANの不具合の典型例である。

■見分ける練習ができるサイト

これらのコツを踏まえた上で、ディープフェイク顔を見抜くための練習をしてみよう。下のスクリーンショットは、ワシントン大学の研究グループが開発した「どっちの顔が本物?」(whichfaceisreal.com)というウェブサイトのものである。同研究グループは、合成された顔画像と実際の顔画像を見分ける訓練に役立つよう、このウェブサイトを公開した。公開後2週間で400万回以上プレイされたという。

ワシントン大学の研究チームが作ったウェブサイト「どっちの顔が本物?」whichfaceisreal.comのスクリーンショット
ワシントン大学の研究チームが作ったウェブサイト「どっちの顔が本物?」whichfaceisreal.comのスクリーンショット

このサイトを訪れると、顔画像が2枚表示される。一方は本物の顔画像で、もう一方はGANで合成した偽の顔画像である。本物の顔画像は、クリエイティブ・コモンズやパブリックドメインから、肖像権の問題をクリアした顔画像を集めたFFHQというデータセットからランダムに選ばれる。偽の顔画像は、GANで架空の人物の顔写真を生成する「この人物は存在しない(This Person Does Not Exist)」というウェブサイトの素材からランダムに選ばれる。

■画像の出典を検索してみるのも効果的

数回試してみるとわかるが、ぱっと見ではどちらも本物の画像に見える。先ほどのディープフェイクを見抜くコツを意識して画像を見てみると、少し違和感を覚えるものもあるが、見分けるのは容易ではない。これらを見抜くためのコツは、現在のGANの技術を仮定したものであり、ステーブル・ディフュージョンなどの新手法や別の方法ではどうかについては、まだあまり知見がない。そして、AI技術の発展によって、これらの不具合が改善されたディープフェイクが登場することは確実だろう。

最後に、簡単だが、ディープフェイクかもしれない画像と出会ってしまったときのノウハウとして、ぜひ実践してほしい方法を紹介する。それは、グーグル画像検索やティンアイ(TinEye)などで、画像の出典を調べるということだ。もし、ウェブ上の画像を合成して作られたディープフェイクならば、出典を見れば見抜けることも少なくない。コンテンツを調べるよりも出典を調べるほうが、作業としてははるかに簡単だ。

----------

笹原 和俊(ささはら・かずとし)
東京工業大学環境・社会理工学院准教授
1976年福島県生まれ。2005年東京大学大学院総合文化研究科博士課程修了。博士(学術)。専門は計算社会科学。理化学研究所BSI研究員、日本学術振興会特別研究員PD、名古屋大学大学院情報学研究科講師等を経て現職。主著に『フェイクニュースを科学する 拡散するデマ、陰謀論、プロパガンダのしくみ』(化学同人)。

----------

(東京工業大学環境・社会理工学院准教授 笹原 和俊)

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください