1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

生成AIへの違和感と私たちはどう向き合うべき? AI倫理の基本書の訳者はこう考える

ASCII.jp / 2023年12月16日 15時0分

アニメ・マンガの界隈では引き続き混乱が続く生成AI。そもそも人はAIとどう向き合うべきなのか? 『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにうかがいました

〈〈後編はこちら〉

AIと向き合うためのカギは「倫理」

 AI関連サービスの急速な普及が、さまざまな混乱を巻き起こしている。本連載が扱う、マンガ・アニメの領域でも、たとえばpixivは「FANBOX」でのAI利用を禁止し、定番ツール「CLIP STUDIO PAINT」ではユーザーの反発を受けて、導入予定だったAIパレットの実装を取りやめるに至っている。

 アニメ業界でも生産性の向上への期待がある一方、拒絶反応も大きいのが実情だ。技術以前に「AIとどう向き合うべきか」という倫理が問われている状況のなか、注目の書籍『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにお話をうかがった。

小林啓倫さん。システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBA取得。外資系コンサルティングファーム、国内ベンチャー企業などで活動。現在はITアナリストとして活躍の傍ら執筆活動を続けている。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たな新ビジネス』(朝日新聞出版)など。訳書に『情報セキュリティの敗北史』『テトリス・エフェクト』(白揚社)ほか多数
■Amazon.co.jpで購入
  • AIの倫理リスクをどうとらえるかリード・ブラックマン、小林啓倫白揚社

「絵が勝手に使われる」という拒絶反応はどこから来るのか?

―― オンライン上の情報(作品)の特徴を大量に学習して、それを元に絵などを生成するというのが生成AIサービスの基本的な仕組みですが、そのことがクリエイターやユーザーの反発を招いています。この点をまずどう見ていますか?

小林 クリエイターとしては、描いて世に出したものは学習されるものだという前提で行動しなければならなくなったと思います。それはAIサービス――「AI=生成AI」ではない点には注意が必要ですが――を提供している事業者自体が、大量のサンプルデータ(教師データ)をAIに学習させることで優秀なサービスが生まれてきたことと表裏一体です。

 ではどこから学習データを調達するかと言えば、本来は自前で用意できれば理想的なのですが、そんな大量のデータは用意できません。そこでネット上の情報をクローリング(巡回)して持ってきているわけです。

 このクローリングの結果をもとに文章なり画像なりが生成されるため、「何かと似ている」ということは当然起こり得ます。そしてそれが文章であれば、たとえ「誰々の文章っぽい」言い回しが出てきても、著作権上問題だという意識にはなりにくいのです。

 以前記事で紹介したこともあるのですが、ChatGPT4の解析をした人が、出力される文章にオーウェルの『1984』や、「ハリー・ポッター」の特定の巻数を学習しているのではないか、と指摘していたりもします。

 私も検証したのですが、それらの作品からある部分のフレーズを持ってきてChatGPTに「これはどの作品からの引用ですか?」とたずねたところ、作品名を正確に答えました。

 また、その続きを書くように指示したところ、まったく同一ではありませんが、非常に似た文章を返してきましたので、これはたしかに『1984』を学習しているな、と。

 このように、手当たり次第クローリングしてAIに突っ込んで生成させるということを各社が競って実施いるわけですから、クリエイターからすればネット上に出したものは学習されるのだという前提のもと、対応をしていかねばなりません。

「●●っぽい」が絵では許されず、文章だと寛容な理由

―― クリエイターもすでにそこには危機感を覚えていて、たとえばX(旧Twitter)のプロフィールに「AI学習禁止」の旨を書いているアカウントも目にするようにはなりました。ただ、Xの規約も相まって実効性はないですよね?

小林 残念ながらまったくありません。

イーロン・マスク氏は、X(Twitter)を積極的なAI学習の場とする方針を示している

―― そして文章であれば、先ほど例に挙げていただいたように「●●っぽい」は人間でも起こり得るため一定の範囲で許容され、ときには歓迎されたりもしているわけです。ところが、絵だとそうでなくなっていきます。

小林 これは個人的な考えにはなってしまいますが、絵が1枚で完成されたものとして捉えられるのに対して、文章は一連の内容・文脈のかたまりで1つのものとして扱われるという違いはあるかもしませんね。

 音楽もそのようなコンテンツではないかと。つまり絵のほうがその人の個性・スタイル=特徴が強烈に現われている。その特徴をコピーしてしまうと、それこそ「贋作」として受け止められてしまう。

―― 音楽であればラップのような「ミックス」という制作スタイル・ジャンルがあったり、文章でも共著があったりして文化として受容されていますが、絵はより個性に依拠していると言えるかもしれませんね。

 将来はわかりませんが少なくとも現在はそこにAIが介在することに強烈な違和感、たとえばオリジナルが蔑ろにされているのではないかといった嫌悪感などが生まれてしまっている、ということかもしれません。

 あと、先ほどのお話のなかで、「『1984』から学習してきたんだな」という、言わば出典がわかると一定の納得感も生まれ得るわけですが、一方で1枚の絵の中に『ここから学習したんだろうな』と類推できるにもかかわらず出自が明らかにされていないと、いわゆる「トレパク」じゃないのかという感覚が生まれてしまいますよね。

小林 先ほどの文章の検証のように、技術的には「どこから学習をしたのか」は本来ある程度は示せるはずです。絵を描いたクリエイターがAIサービスに学習されているかどうかを検証したい場合も、同様に確かめることもできるかもしれません(参考:NYタイムズ、オープンAIの提訴検討 現地メディア報道/日本経済新聞)。

 ただ、自分が描いている絵が非常に特徴的であればそれも可能ですが、そうでなければ確認自体難しくなります。したがって、クリエイターの側からの「学習された」という立証は難しく、開発者でなければわからないということになってしまう。開発側が学習経路を出してくれなければ、クリエイターからはあくまで仮説を積み重ねることしかできないわけです。

―― ベータ版を公開即停止したmimicを思い出します。

 ユーザー側が学習させる絵をAIに明示的に与えるタイプのサービスだったので、何を学習したかはハッキリしていて、それが批判を招いたわけですが、一方でネットのクローリングで学習対象が明示されていないStable DifusionやMidjourneyがmimicのようには批判されていないのは、ある意味興味深いなと。 ※MidjourneyではLoraと呼ばれる追加学習によって、特定の作風に沿った出力を得る手法も存在している。

 そして、膨大な学習によって成立しているので、クリエイター側が自身の作品を学習/模倣されたと立証するのは難しい。自身の作品を発表して認知拡大を図ろうとすればするほど、AIに「模倣」されるリスクが高くなるというジレンマに陥ってしまいます。

小林 おっしゃる通りですね。

ストラクチャーありきの組織は社会に害を与える可能性がある

―― ある意味「詰んでいる」ようにも見える状況ではありますが、そんななか、今回小林さんが翻訳された『AIの倫理リスクをどうとらえるのか』における考え方が、特にサービス事業者にとって重要になってくると言えます。

小林 本書では、倫理をストラクチャーとコンテンツに整理して、サービスを提供する側に本質的な対応をすることを求めています。CLIP STUDIO PAINTの例でもわかるように、現状はサービス事業者とユーザーとの間で共通理解ができていません。

 本書で私が良いなと思ったのが、倫理を考え方で終わらせるのではなく「行動」に落とし込むために、どんな選択を採るべきなのか示している点です。

 もちろん、本書に書かれていることが唯一ではないと思いますし、さまざまなアプローチはあるべきなのですが、一般的な企業で「考え方は決まったが、ではどう実行するか」という段階になったときに、途端にグダグダとなってしまうという、よくある挫折を未然に防ぐ可能性を高めてくれると思います。

 現在、「AI倫理宣言」を打ち出す企業は増えています。しかし「AIはユーザーに不利益を与えない/人道に反さずバイアスや偏見を防ぐ」といった方針を定めたとして、それは確かに良いことなんだけれども、たとえば「顧客に害を為さない」とは具体的にどういうことかをブレイクダウン(細分化)しておく必要があるのです。つまり、ここがコンテンツの側面となります。

 「こういうケースではAIはこのように活用/制限されなければならない」というコンテンツを想定したうえで、事業プロセスのなかで実現できる倫理の構造=ストラクチャーを作ろうという考え方のもと、本書ではチェックリストを提示しています。

 事例として「クー・クラックス・クラン(KKK=白人至上主義を掲げる秘密結社)」が挙げられているように、理想や行動倫理といったストラクチャーがしっかりしている組織でも、コンテンツが黒人排斥といった危険な方向を志向していると社会に害を与えることが十分にあり得るわけです。

 そのため、まずAIで何を実現したいのかというコンテンツを適切に定めることが重要になります。

 ストラクチャーだけだと、実効性はあっても何をしたいのか不明確になりがちですが、「これを実現したい」というコンテンツとセットであれば、実現できているか否かを日々チェックしつつ運用できます。

―― 昨今のイーロン・マスク氏配下のXや、ビッグモーターなどが想起されますが、ストラクチャーが単純明快で極端であればあるほど、議論の余地なく組織はまとまりやすい。けれども、そういった事業者が提供する1つ1つのサービスのようなコンテンツがどうなるか、という話でもありますね。言わばカルトに近づいていくわけなので。

 したがって、AIのような破壊的なゲームチェンジャーが現われたときこそ、「コンテンツが顧客と事業者、社会に利益をもたらしているか」からチェックしていくべきであると。

小林 その通りです。

ユーザーからの反発を企業はどう受け止めるべきか?

―― しかし、たとえばCLIP STUDIO PAINTも「クリエイターの利益をもたらすこと」を目指して画像生成AIパレットの搭載を進めた結果、ユーザーから想定外の反発を受けることになりました。

 コンテンツをどう定めるのか、ユーザーとの共通の価値観を持つことも難易度の高い作業と言えるかもしれません。どうすれば良いのでしょうか?

〈〈後編はこちら〉

■Amazon.co.jpで購入
  • AIの倫理リスクをどうとらえるかリード・ブラックマン、小林啓倫白揚社

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください