1. トップ
  2. 新着ニュース
  3. ライフ
  4. ライフ総合

蔓延するフェイク動画、複雑化するイスラエルとハマスの状況

Rolling Stone Japan / 2023年11月13日 7時0分

AIの出現で本物の写真とフェイク画像を見分けるのがますます困難に(PHOTO ILLUSTRATION BY MATTHEW COOLEY. PHOTOGRAPHS IN ILLUSTRATION BY ARIS MESSINIS/AFP/GETTY IMAGES; YURI CORTEZ/AFP/GETTY IMAGES; PABLO BLAZQUEZ DOMINGUEZ/GETTY IMAGES; MATT ROURKE/AP; ADEL HANA/AP)

10月7日にハマスがイスラエルを奇襲して以来、包囲されたガザ地区で暮らすイスラエル人とパレスチナ人の身にふりかかる災難や惨状をとらえた画像を目にしない日はない。すでにインターネット上では誤情報や過去の戦争を再利用した映像、現地の実情とは矛盾する情報が大量に出回り、選別するのもままならない――さらに人工知能の技術の登場で、問題はより一層複雑化している。

【動画を見る】環境活動家グレタ・トゥンベリさんがミサイル使用を呼びかけるフェイク動画

ソーシャルメディアは現在進行中の戦争がらみのAI生成画像や動画であふれ返っている。こうした大量のコンテンツには、扇動的なプロパガンダ目的で素人が作ったもの、ユダヤ人を標的にしたヘイトミーム、大衆を欺くために故意に加工されたものなどがある。

「選別されていない情報源からの情報を人々が鵜呑みにし続けています。これほどまでに(AIは)従来の問題を悪化させています」。AI安全センターの研究員を務める香港大学のナサニエル・シャラディン教授は、ローリングストーン誌の取材でこう語った。「信憑性の高い偽コンテンツの生成が以前より容易になったことで、より高品質のフェイク画像・音声・動画の数が増え、目にする機会もずっと増えるでしょう。その結果どうなるのかはわかりません」と教授は続け、野放し同然の状態でAIツールが出てきた状態を「自らを実験台にした自己実験」とたとえた。

そうした実験はすでに現実で起きている。AI生成メディアで拡散された誤情報の中でもっともよく知られているのが、アメリカのジョー・バイデン大統領が徴兵義務の対象を女性に拡大するというものだ。もともとは今年2月にディープフェイクで作成された動画だが、イスラエルとハマスの戦争を背景に再び表に出てきた。ディープフェイク動画では偽バイデンが徴兵義務の再開を宣言し、「忘れないでください、大事な息子や娘を戦争に送り出すわけではありません。自由に送り出すのです」と発言している。

動画の他にも、女性徴兵という根も葉もない噂が拡散し、TikTokでは女性たちが兵役した場合の様子を想像する風刺動画を投稿した。数千件にも上るこうした動画に#WomenDraftといったハッシュタグがつけられ、数百万回も閲覧されたケースも多い。

AIが生成したディープフェイク動画のもうひとつの例は、環境活動家グレタ・トゥンベリさんが持続可能な軍事技術と「生分解するミサイル」の使用を呼びかけるという動画だ。ピザゲートで知られる陰謀論者ジャック・ポソビエク氏などの著名人がシェアしたこの動画は、Twitterで数百万件のインプレッションを獲得した。小さな透かしから、デジタル加工された「風刺」動画であることが伺えるものの、コメントを寄せた大勢のユーザーは本気にし、現実か判断がつきかねているユーザーもいた。



同じように、イスラエルのベンヤミン・ナタニヤフ首相の広報チームでソーシャルメディアを担当していたこともあるインフルエンサー、ハナニャ・ナフタリ氏もハマス幹部の「豪遊生活」の写真を投稿し、混乱を引き起こした。画像にはAIモデルで生成した際によく見られるブレがあったため――またナフタリ氏自身も真実をねじ曲げた前歴があり、今月もイスラエル防衛軍から戦地任務の招集がかかったと虚偽の主張をしていたため――偽コンテンツだと非難が相次いだ。

だがフォーブス誌も報じているように、ナフタリ氏は解像度を上げるためにAIの「画像鮮明ツール」で加工処理したものの、写真そのものは本物だ。加工後の画像はX(旧Twitter)に投稿されて2000万回以上閲覧されたが、見た感じはDALL-EやStable Diffusionのようなテキスト入力画像生成プログラムで生成されたかのようだ。ナフタリ氏を批判した人々も、そうにちがいないと思い込んでいた。

他にも、ガザ地区住民やイスラエル人への同情を煽るため、または双方の底力や団結力を示すために作られた偽AI画像もある。イスラエル政府寄りと見られるAI画像には、イスラエル人の群衆が街を練り歩き、沿道の住民が窓から国旗を振って声援を送る様子が映っている。Telegramの「戦時メディア」というチャンネルで投稿されたとおぼしき画像には、実在しないイスラエル人難民キャンプが映っている。

イスラエルがガザ地区に砲弾の雨を降らせる中、胸をつまされるような本物の写真や動画が数多くガザ地区から発信されているものの、巷に出回っている画像にはAIで生成されたものも多々ある。そうした画像は厳しい環境に子どもたちを配置して、見る者の感情を揺さぶってくる。中には「AIアート」とラベルがついたものもある――燃え盛る炎をバックに、パレスチナ人の少女がテディベアを抱いた画像もその1つだ。だが、赤ん坊が周囲のアパートが爆撃されるのを見つめるAI画像のように、注目される画像はえてして本物として投稿されている。

さらに事態をややこしくしているのが、誤解を生む画像がしばしば一目置かれている情報源から発信されているという点だ。チュニジア人ジャーナリストのムハマド・アル・ハキミ・アル・ハミディ氏は、灰だらけのパレスチナの子どもたちが瓦礫をバックに微笑む画像を先日投稿した。そこはかとない雰囲気が漂うこの写真は、各種ソーシャルメディアで発信されているのみで、メディアには一切掲載されていない。

AI由来の戦争コンテンツの被害は誤情報だけにとどまらず、憎悪を直接あらわにしたプロパガンダもある。ハマスの戦闘部隊がパラグライダーでイスラエルを攻撃したことから、ネオナチ集団はパラグライダーをシンボルに採用してユダヤ人殺戮を美化したり、先制攻撃を仕掛けるハマスのパラグライダー部隊を描いた反ユダヤ的な風刺画をAIモデルで作成したりしている。そうしたパラグライダーのミームには、Tシャツにデザインされてネオナチ系オンラインショップで販売までされている。

もうひとつパレスチナ支援者の怒りを買ったのが、ガザ地区一帯に新装開業の巨大テーマパークを描いたコンセプトアートだ。これを投稿したInstagramのユーザーは、「ご紹介します、まもなくイスラエル南部に建設予定の新たな観光リゾート都市ノヴァです」と、イスラエルの国旗の絵文字付きで投稿した。「不動産購入開始の時期は?」というコメントの質問には、「ちょうど今更地にしているところです」と回答している。

他国がイスラエル、またはパレスチナへの支援を表明する様子を示したフェイク画像も世界各地に出回り、やはり緊張状態を煽っている。そのうちの1つには10月8日にパリ市がエッフェル塔をイスラエルの国旗の色にライトアップしたとあるが、加工された画像だった。たしかに翌日エッフェル塔はイスラエル色にライトアップされたものの、画像とはまったく違っていた。コンサート会場「ラスベガス・スフィア」の外装にイスラエルの国旗が施されたとの加工動画が出回り、会場側が噂を否定するという事態も発生した。別のフェイク画像には、スペインのサッカーチーム「アトレティコ・マドリード」のファンが巨大なパレスチナ国旗を掲げる様子が映っている。事実確認の末にフェイクであることが判明し、AIで生成された可能性が指摘された。



ガザ地区の早期停戦へのかすかな期待と、地政学的なメッセージを発信するAIコンテンツがいともたやすく作成・拡散できるようになった事実のはざまで、こうした誤情報の問題は行き場を失っている。逆説的だが、フェイク画像の存在がますます知られるにつれ、ネットユーザーは偽画像を目にするばかりか、これが現実だと誤解しかねない。現在進行中の戦争で対立する意見をさらにややこしくする可能性もある。AI画像の専門家でさえ、本物の写真をフェイクだと見誤うこともないとはいえない。

「この手のフェイク画像の投稿は――AI画像だとラベルがないものも含め――多くの配信プラットフォーム(の利用規約)になんら違反していません」とシャラディン教授は言う。「こうしたコンテツにフラグを立てる、あるいは削除やアクセス規制の措置を取るといった判断は、GoogleやMeta、Xなどの大手プラットフォームに委ねられています」。

AI関連の誤情報や濫用への対抗策として、ソーシャルメディア側には何ができるのか。この問題には各社の基本実施方針に大きく作用する2つの要素、つまり「資金」と「意思」がかなり密接にかかわってくるとシャラディン教授は付け加えた。

いくらか改善は見られたものの、AI生成コンテツを瞬時に見分ける有効なエンドユーザー向けツールはまだ多くない。デジタル指紋や透かしなどのボット識別技術は(多くの場合ほとんど機能しないが)機能したとしても、AIモデルの大手開発業者が「わが社のモデルを使用して作られたコンテンツではない」と断言できる程度でしかない。シャラディン教授もローリングストーン誌にこう語る。「こうした技術をもってしても、エンドユーザーがAIモデルで生成されたコンテンツかどうかを見分けることはできません。ただ、開発業者が『うちのモデルではない』と言ったところで一般大衆にはなんの役にも立ちません。私たちが望むのは、コンテンツを作ったのがAIか、それとも人間かを見分ける方法なのですから」。

一方ソーシャルメディアのモデレーションチームは、フラグまたは削除を要する微妙なコンテンツの波にのまれ、問題解決策は実質ゼロの状態だ。ユーザーがAI生成画像にラベリングできるXの「コミュニティノート」という機能を別にすれば、そうした機能を追加するプラットフォームはほぼ皆無と言っていい――コミュニティノートでさえ、既存の誤情報やプロパガンダに追い付けていない。AI画像だと判明するころには時すでに遅し、すでに数千人の目に触れ、リポストされている可能性もある。その間コンテンツを作成した当の本人は、当然のごとく次のコンテンツ作りに動いている。

関連記事:AIチャットボットに浮気される女たち「生身の人間と浮気された方がまし」 米

from Rolling Stone US

Omgpic.twitter.com/pQPtTOhxld — Jack Poso (@JackPosobiec) October 23, 2023

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください