1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

AIで作るニセ情報「ディープフェイク」氾濫の脅威 まんまと騙され社会混乱、ニセモノ見抜くには

東洋経済オンライン / 2024年8月2日 9時0分

さらに、自分の画像をAIの学習に使わせないようにするワクチンも開発している。生成AIの学習元となる画像は、インターネット上を巡回するクローラーと呼ばれるボットによって収集される。日本の著作権法では、AIの学習に使うデータは無断で収集して使用することが認められているが、知らない間に自分の顔画像が使われているのはあまりいい気持ちはしない。

このワクチンを画像に埋め込むと、画像に人物が写っていることをクローラーが確認できなくなり、収集の対象となることを避けられるという。サイバー空間内で画像を隠し、プライバシーを守ることができるのだ。

真贋判定の技術を企業向けに提供も

真贋判定の技術については、企業向けサービス「SYNTHETIQ VISION」として2021年より社会実装も行われている。企業が簡単に利用できるWeb APIとして提供され、多くの企業から引き合いがあるという。

例えば、実在する著名人のデジタル空間での「分身」として公式3DCGモデルを制作・管理するサービス「デジタルツインレーベル」を展開するサイバーエージェントは、登録した著名人のディープフェイク検知のために導入している。

このほかにも、金融機関がeKYCなどに対するなりすまし検知に利用したり、弁護士事務所などが誤った証拠の使用を避けるための真正性確認に使ったり、報道機関が誤報道を避けるために報道前に真贋判定を行ったりと、さまざまなユースケースが期待されている。

ユーザーができる防衛策は「すぐに反応しない」

AIによって作られたフェイクコンテンツが溢れる時代において、われわれ一般ユーザーがだまされないためにはどのような心構えが必要なのだろうか。

「見た目や音声などでは区別のつかないレベルになっている。とくにソーシャルメディアに掲載される画像はサイズが縮小されるので、見分けることが難しいケースが多い。まず重要になるのは、反射的にリアクションするのを控えること」(越前氏、以下同)

拡散したくなるようなコンテンツを見つけた場合も、ひと呼吸おいてほかの情報にあたったり、コンテンツに対するコメントを見たりすることで、その情報が事実ではないことに気づけるケースもある。従来の詐欺対策などと変わらない基本的な方法ではあるが、ディープフェイク対策においても重要な姿勢となる。

もう1つ念頭に置いておきたいのが、「自身がディープフェイク的なコンテンツを作ってしまう」可能性だ。誰もが簡単にAIで画像や動画を作れるようになったということは、自身が意図せずとも問題のあるコンテンツを生成してしまうことが起こりうる。また予期せぬトラブルを防ぐために意識したいのが、生成AIの学習データの健全性だ。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください