1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

ニコンやライカ、フェイク画像対策にAdobeの新技術

ASCII.jp / 2022年10月24日 9時0分

ニコンとライカはAdobe創設の「CAI(Content Authenticity Initiative)」に参加し、来歴記録機能に対応するカメラを開発していることを明らかにした

 Adobeは10月18日、アメリカ・ロサンゼルスにおいて、クリエイティブの祭典「Adobe Max 2022」を3年ぶりにリアルで開催した。

 そのなかで、2019年にAdobeが創設したCAI(Content Authenticity Initiative)に800以上の企業や団体が所属しているとし、カメラメーカーであるニコン、ライカが対応するデジタルカメラを開発していると明らかにした。

 そもそも、CAIとはどんな団体なのか。

 インターネット上には画像などデジタルコンテンツがあふれているが、実際には様々に加工されたフェイクも数多い。そうしたフェイク画像が真実のように伝えられ、結果として間違ったニュースとして世間に広まることもある。

 そうした状況を防ぐため、デジタルコンテンツが誰によって作られ、どういった加工がされたのを確認できるようにしようというのがCAIが発足した理由だ。こうした取り組みはAdobe1社では実現できないため、メディアやIT企業、非政府団体、学術機関などが参加し、コンテンツの信頼性や透明性の向上に向けた議論や技術導入を進めている。

株式会社ニコン 映像事業部開発統括部ソフトウェア開発部第一開発課 末長亮太氏(左)、株式会社ニコン 映像事業部UX企画部 井上雅彦参事(右)

写真の“来歴”データで追える

 今回、ニコンはミラーレスカメラ「ニコン Z9」に来歴記録を書き込める機能を搭載した試作機をメディア公開した。これにより、撮影時、どのカメラで誰が撮影したかなどの来歴情報を画像データに付与できるようになる。

 例えば、撮影した画像データに対して、Photoshopで加工したのち、クラウドにアップすると、どういったカメラで撮影した画像データと、Adobe Stockにあるどの画像データが合成されたのか、誰のPhotoshopで加工したのかが確認できる、というわけだ。

 ニコンの担当者によれば、新聞社によっては、カメラマンから持ち込まれた画像データが本当に正しいものなのか、キチンとチェックしており、そうした作業に時間を取られていることが多いというのだ。

 CAIのような仕組みがあれば、持ち込まれた画像データが、誰がどのカメラで撮影したのかを付与情報で確認できるため、確認作業の時間を減らすことができるという。

 ニコンとしては、当初はプロ向けのカメラへの対応を検討しているとのことだ。

写真の盗用も確認可能に

 筆者は普段、記者会見に出かけ、取材をしつつ、写真を撮影して、編集部に原稿とともに写真を納品している。

 時々、そうした撮影写真がブログに盗用されているのを見かけることがある。これまでは「なんとなく似ているけど、盗んでない?」という探り探りで盗用の確認をするしかなかったが、CAIのような仕組みがあれば、すぐに自分が撮影したものかの確認ができる。

 AdobeのCAI担当ディレクターであるアンディー・パーソンズ氏によれば、デジタルカメラだけでなく、スマートフォンのカメラ、さらにはスクリーンショットを撮る際にも誰がどのメーカーのスマートフォンで撮影したかという情報を書き込めるようになるという。

Adobe CAI担当ディレクター アンディー・パーソンズ氏

 これにより、CAIの取り組みが一気に広がる可能性がある。

 では、スマートフォンに付与情報が書き込まれるようになると、どんな世界が待っているのか。

来歴情報は改ざん不可能

 例えば、有名人による不倫のやりとりが記されたLINEのスクリーンショット画像が、週刊誌の編集部に持ち込まれたとしよう。編集部の記者は関係者にもインタビュー取材をして、実際に不倫の関係にあるのか、記事にしても訴えられないかの事実確認を進めていく。

 ここでスクリーンショット画像が、どのスマートフォンでいつ撮影されたものかも確認する。ここにキチンと来歴情報があれば「ホンモノ」と認定し、証拠として記事に掲載できるというわけだ。

 一方、来歴情報がなかったり、Photoshopで加工されたデータだとわかると「偽物」ということで、記事掲載は見送りになる。

 これまでも写真であればExifのようの撮影機材のメーカーやモデル名、解像度、シャッター速度などが付与されているが、改ざんが可能だ。CAIの取り組みでは、こうした情報は暗号化され、改ざんできないようになっている。

メディアなど様々な企業が参加すべき

 CAIの取り組みが普及しても、ネットからはフェイク画像はなくならないだろう。今後、AIが作った画像など、巧妙なフェイク画像がさらに氾濫することは間違いない。

 しかし、「誰が作ったものか」「どういった編集過程が施されたのか」「どういった画像が重ね合わさってできたのか」というのを誰もが簡単に確認できるようになることで、だまされたりする心配は一気に無くなるのではないか。

 CAIの取り組みが一般的に広まるにはあと数年はかかりそうだが、誰もが「フェイク画像にだまされない」ためにもメディアを筆頭に様々な企業がCAIに参加していくべきだろう。

 

筆者紹介――石川 温(いしかわ つつむ)

 スマホ/ケータイジャーナリスト。「日経TRENDY」の編集記者を経て、2003年にジャーナリストとして独立。ケータイ業界の動向を報じる記事を雑誌、ウェブなどに発表。『仕事の能率を上げる最強最速のスマホ&パソコン活用術』(朝日新聞)など、著書多数。

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください