1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

AIで作るニセ情報「ディープフェイク」氾濫の脅威 まんまと騙され社会混乱、ニセモノ見抜くには

東洋経済オンライン / 2024年8月2日 9時0分

この「拡散モデル」を使ったサービスとして、よく知られているのが「Stable Diffusion」だ。オープンソースとして公開されているから、誰でも自由にチューニング(調整)をかけてオリジナルのモデルを作ることができる。ただ、「特定の人物の画像を生成するモデル」を作ることも可能で問題にもなっている。

例えば、実在する著名人の画像を学習させたモデルを作り公開すると、あとはテキストで指示するだけで、その人物の表情やポーズ、シチュエーションを変更した画像を自由に生成できてしまうのだ。

一度チューニングしたモデルを作ってしまえば、使う側は元となる人物の素材を探すことすらせずに、その人物の新たな画像を作ることができてしまうため、悪用されるとさまざまな問題につながることが容易に想像できるだろう。

ほかのタイプにも懸念すべき課題は多くあるが、例えば③実在するターゲットの顔の画像や動画に攻撃者の表情を合成する「表情転写」と呼ばれる技術を悪用することで、本人確認のための認証を突破されてしまうリスクも上がっているという。

ネット銀行の口座開設時などにオンラインで本人確認を実施するeKYC(electronic Know Your Customer)では、最初に免許証などの写真を撮影し、続いてスマホのカメラに向かって申込者本人が指示された方向に顔を向けるなどの動きをすることで本人確認を行う。

③のように、ターゲットとなる人物の写真をもとに、「静止画の写真の人物」を攻撃者の動きにあわせて自由に動かせてしまうとなると、攻撃者が代わりに認証を行っても容易に本人確認ができてしまうことになる。

真贋判定や「サイバーワクチン」技術を開発

こうしたディープフェイクの氾濫に対して、どのような対策が可能なのだろうか。

越前氏らは、AIを活用し、顔の画像や映像に対してそれが本物なのか、あるいはAIで生成されたものなのかを識別する技術を開発。目や口のあたりのノイズから改ざんの有無を判定し、ニセモノの場合は顔のどの部分がどの技術で改ざんされているのかを推測できるという。

ただ、真贋判定にはどうしても限界がある。コンテンツは膨大にある中でフェイクを1つひとつ検知するのは非現実的で、技術的にも攻撃者といたちごっこになりやすいからだ。

そこで、フェイクコンテンツを作られた場合に備える「サイバーワクチン」と呼ばれる技術も開発している。あらかじめ人の顔の映像や画像に、目には見えないオリジナルの顔に関する情報「サイバーワクチン」を埋め込んでおく。たとえその顔が、ほかの人に置き換えられた場合も、埋め込まれた情報を参考にして元の映像や画像を復元できる手法だ。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください