1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

生成系AIの普及による「偽情報」の拡散に注意

ASCII.jp / 2023年4月21日 9時0分

著作者:Freepik

AIが作成した偽情報を見分けられるか

 最近、ネット上で流行しているものの一つに、AIがある。AI開発大手のOpenAIが開発した対話系AI「ChatGPT」などは、まるで人間が対応しているような、自然な反応が可能だ。

 AIの応用は進んでおり、文章を入力するとAIがイラストを生成するサービスも出てきている。つまり、専門的な知識がなくとも、AIを使えば数分でコンテンツを作成できるようになっているわけだ。

 一方、悪意を持った人間が、偽の画像や音声を作成することも容易になっていく面も考えられる。

 たとえば、AIを用いて、既存の画像や映像などを、別の画像・映像に合成する技術「ディープフェイク」がある。“ディープ”とは、ディープラーニングを意味している。ディープラーニング技術を活用して、既存の画像、音声、動画などを、ソースメディアファイルに重ね合わせることで作成されるものだ。

 たとえば、特定の人物が、直接話す映像が撮影できなくても、その人の声と仕草で話しているような映像が作成できる。AIの技術が普及していけば、いたずらを目的したもののみならず、政治的・経済的な混乱を招こうとする“フェイク”が多数作られる恐れもある。

 たとえば、2022年に、イーロン・マスク氏が偽の仮想通貨取引所への投資を呼びかける内容のディープフェイクの動画が問題になったことがあった。

 また、違和感のない文章を手軽に作れることから、サイバー犯罪者が悪質な行為を拡大させるおそれもある。ネット上でのなりすまし詐欺などに、AIが悪用されるかもしれない。

 例として、マカフィーの、AIとインターネットが恋愛や人間関係をどのように変化させているかを明らかにするため、世界9ヵ国を対象に現代の恋愛(Modern Love)に関する調査がある(AI Goes Dating: McAfee Study Shows 1 in 3 Men Plan to Use ChatGPT to Write Love Letters this Valentine’s Day| McAfee Press Release)。

 これによると、成人のおよそ3分の2(69%)は、AIが書いたラブレターと人間が書いたラブレターの違いを見分けることができなかった。日本でも、53%が見分けられなかったという。

 もちろん、文章作成の手助けにAIを活用すること自体は悪い行為ではない。しかし、なりすまし詐欺やフィッシング詐欺などに悪用された場合、今まで以上に見抜くことが困難になる可能性がある。これもまた、AIの普及による「偽情報」の拡散に注意すべき事例といえるだろう。

慎重に対応することを心がけよう

 フェイク画像/動画が増加していくおそれがある時代では、どのように行動すればよいのか。まず、目を引くコンテンツを見つけても、安易に拡散などをするのではなく、冷静になる必要がある。この情報を投稿したのは誰か、このコンテンツを共有するべきか、情報の受け手として判断しなくてはならない。

 日頃からチェックしているメディアが、コンテンツの事実確認を怠らない組織かどうかを、気にしておくのもよいだろう。

 フィッシング詐欺についても同じことが言える。フィッシングメールがどんなに自然なものであっても、フィッシングサイトに移動し、IDやパスワードなどを入力しなければ被害はない。

 よく利用するサービスへのアクセスとログインには、公式のアプリや、ブラウザのブックマークなどからアクセスする……ということを徹底したい。メールやSMSからのリンクからアクセスしたサイトには、できる限りIDやパスワードを入力しないように。

 ログイン情報を要求するメッセージなどに関しては、公式サイトのヘルプデスクなどから問い合わせて確認する手もある。常に、慎重に対応することを心がけよう。

 もちろん、信頼できるセキュリティソリューションを導入しておくことは基本だ。悪意を持った人間がオンラインで送信する可能性のある不正なリンクをクリックしないように保護したり、ウイルス、ランサムウェアなどの脅威からデバイスを保護したりできる。

 AIの技術の発展を不安がるのではなく、身の回りのセキュリティにしっかりと気を配り、基本的な対策を心がけていこう。最新のサイバー犯罪についての情報を知るために、McAfee Blogの「マカフィーの2023年の脅威動向予測: 進化と悪用」から「AIが主流となり、偽情報の拡散が増加する」の項目を紹介しよう。(せきゅラボ)

※以下はMcAfee Blogからの転載となります。

マカフィーの2023年の脅威動向予測: 進化と悪用:McAfee Blog

2022 年の終わりを迎えるにあたり、マカフィーのThreat Labsチームでは、2023 年はどのような脅威動向になるのか検討を進めています。今年は詐欺行為が絶え間なく進化を遂げ、その勢いが衰える気配はありません。また、オペレーティング システムとしてChromeを導入するユーザーが増加しています。携帯電話やパソコンを所有していれば、誰でも簡単にアクセスできるAIツールの導入は、大きな意義をもたらしています。仮想通貨の価値の変動や「Web3」の出現も同様です。こうしたすべての要素が布石となり、2023年はテクノロジーとのかかわり方が大きく前進を遂げる見込みがあるものの、悪意のある攻撃者がこのテクノロジーを悪用して私たちに影響を及ぼす可能性もあります。マカフィーのチームによる2023年の予測と、安全に保護するためのヒントをいくつかご紹介します。

AIが主流となり、偽情報の拡散が増加する 著者: Steve Grobman、最高技術責任者

人類は、コンピューターを使用するようになって以来、人工知能に魅了されつつも恐怖を抱いてきました。ポップ カルチャーにおける描写は、『2001年宇宙の旅』に登場する人工知能を備えたコンピューターHALから、『ターミネーター シリーズ』に登場する自己認識ニューラル ネットワークのSkynetにまで及びます。AI技術の現状は、映画に描かれているものよりも複雑性が高く、自律性に欠けています。AIは急速に進化を遂げていますが、悪用されることで最も影響を受けるのは依然として私たちです。

過去数か月間で、複数のアプリケーションが一般に利用できるようになりました。つまり、AIが生成した画像、動画、音声は、一部のユーザーのみを対象とするものではなく、携帯電話やコンピューターを持っている人なら誰でも、Open AIのDall-Eや stability.aiのStable Diffusionなどのアプリケーションを使用すると、このテクノロジーを活用できるようになりました。Googleは、AIで生成した動画の作成をこれまでになく容易にできるようにしました。

この動向は、将来において何を意味しているのでしょうか?これは、次世代のコンテンツ作成が大衆にも利用可能になってきており、進化を遂げていくことを意味します。自宅にいる消費者も、職場にいる従業員も、AIで生成したコンテンツを数分で作成できるようになります。デスクトップ パブリッシング、写真編集、写真のような画像を安価に出力できる家庭用プリンターが大きな進歩を遂げ、以前はプロのグラフィック アーティストを必要としたコンテンツを個人が作成できるようになったように、こうしたテクノロジーは最小限の専門性と労力で優れた出力を可能にします。

デスクトップ パブリッシングや消費者向け印刷における進歩は、犯罪者に対してもメリットをもたらし、画像の偽造精度を高め、操作を現実的なものにしました。同様に、こうした次世代の新しいコンテンツ ツールも、悪意のあるさまざまな攻撃者によって悪用されます。サイバー犯罪者から虚偽の情報で世論に影響を与えようとする者に至るまで、こうしたツールは詐欺師や拡散目的に利用され、その活動に必要なノウハウをさらに次のレベルへと高め、現実的な結果や大幅な効率向上をもたらすことになります。

これは、米国での2024年の大統領選挙に向けた活動が本格化する2023年に特に増加する可能性があります。世界的に、政治環境は二極化しています。利用可能な次世代のジェネレーティブAIツールの出現と、激戦が予想される 2024年の選挙時期が重なると、最悪の事態に陥ります。政治的および金銭的利益を目的に偽情報が作り出され、拡散されます。

私たちは皆、使用するコンテンツやその作成元により一層注意する必要があります。画像、動画、ニュース コンテンツなどすでに増加傾向にあるコンテンツの事実確認は、今後もメディア消費の必要な価値ある部分となるでしょう。

※記事の全文はこちらから

※本記事はアスキーとマカフィーのコラボレーションサイト「せきゅラボ」への掲載用に過去のMcAfee Blogの人気エントリーを編集して紹介する記事です。

■関連サイト

  • McAfee Blogのエントリー
  • McAfee Blog
  • McAfee

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください