生成AIへの違和感と私たちはどう向き合うべき? AI倫理の基本書の訳者はこう考える
ASCII.jp / 2023年12月16日 15時0分
〈〈後編はこちら〉
AIと向き合うためのカギは「倫理」
AI関連サービスの急速な普及が、さまざまな混乱を巻き起こしている。本連載が扱う、マンガ・アニメの領域でも、たとえばpixivは「FANBOX」でのAI利用を禁止し、定番ツール「CLIP STUDIO PAINT」ではユーザーの反発を受けて、導入予定だったAIパレットの実装を取りやめるに至っている。
アニメ業界でも生産性の向上への期待がある一方、拒絶反応も大きいのが実情だ。技術以前に「AIとどう向き合うべきか」という倫理が問われている状況のなか、注目の書籍『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにお話をうかがった。
![](https://ascii.jp/img/2023/12/11/3654143/x/9f1ab2c5a8189711.jpg)
■Amazon.co.jpで購入
AIの倫理リスクをどうとらえるかリード・ブラックマン、小林啓倫白揚社
「絵が勝手に使われる」という拒絶反応はどこから来るのか?
―― オンライン上の情報(作品)の特徴を大量に学習して、それを元に絵などを生成するというのが生成AIサービスの基本的な仕組みですが、そのことがクリエイターやユーザーの反発を招いています。この点をまずどう見ていますか?
小林 クリエイターとしては、描いて世に出したものは学習されるものだという前提で行動しなければならなくなったと思います。それはAIサービス――「AI=生成AI」ではない点には注意が必要ですが――を提供している事業者自体が、大量のサンプルデータ(教師データ)をAIに学習させることで優秀なサービスが生まれてきたことと表裏一体です。
ではどこから学習データを調達するかと言えば、本来は自前で用意できれば理想的なのですが、そんな大量のデータは用意できません。そこでネット上の情報をクローリング(巡回)して持ってきているわけです。
このクローリングの結果をもとに文章なり画像なりが生成されるため、「何かと似ている」ということは当然起こり得ます。そしてそれが文章であれば、たとえ「誰々の文章っぽい」言い回しが出てきても、著作権上問題だという意識にはなりにくいのです。
以前記事で紹介したこともあるのですが、ChatGPT4の解析をした人が、出力される文章にオーウェルの『1984』や、「ハリー・ポッター」の特定の巻数を学習しているのではないか、と指摘していたりもします。
私も検証したのですが、それらの作品からある部分のフレーズを持ってきてChatGPTに「これはどの作品からの引用ですか?」とたずねたところ、作品名を正確に答えました。
また、その続きを書くように指示したところ、まったく同一ではありませんが、非常に似た文章を返してきましたので、これはたしかに『1984』を学習しているな、と。
このように、手当たり次第クローリングしてAIに突っ込んで生成させるということを各社が競って実施いるわけですから、クリエイターからすればネット上に出したものは学習されるのだという前提のもと、対応をしていかねばなりません。
「●●っぽい」が絵では許されず、文章だと寛容な理由
―― クリエイターもすでにそこには危機感を覚えていて、たとえばX(旧Twitter)のプロフィールに「AI学習禁止」の旨を書いているアカウントも目にするようにはなりました。ただ、Xの規約も相まって実効性はないですよね?
小林 残念ながらまったくありません。
![](https://ascii.jp/img/2023/12/07/3652282/x/cd4913db52430cd2.jpg)
―― そして文章であれば、先ほど例に挙げていただいたように「●●っぽい」は人間でも起こり得るため一定の範囲で許容され、ときには歓迎されたりもしているわけです。ところが、絵だとそうでなくなっていきます。
小林 これは個人的な考えにはなってしまいますが、絵が1枚で完成されたものとして捉えられるのに対して、文章は一連の内容・文脈のかたまりで1つのものとして扱われるという違いはあるかもしませんね。
音楽もそのようなコンテンツではないかと。つまり絵のほうがその人の個性・スタイル=特徴が強烈に現われている。その特徴をコピーしてしまうと、それこそ「贋作」として受け止められてしまう。
―― 音楽であればラップのような「ミックス」という制作スタイル・ジャンルがあったり、文章でも共著があったりして文化として受容されていますが、絵はより個性に依拠していると言えるかもしれませんね。
将来はわかりませんが少なくとも現在はそこにAIが介在することに強烈な違和感、たとえばオリジナルが蔑ろにされているのではないかといった嫌悪感などが生まれてしまっている、ということかもしれません。
あと、先ほどのお話のなかで、「『1984』から学習してきたんだな」という、言わば出典がわかると一定の納得感も生まれ得るわけですが、一方で1枚の絵の中に『ここから学習したんだろうな』と類推できるにもかかわらず出自が明らかにされていないと、いわゆる「トレパク」じゃないのかという感覚が生まれてしまいますよね。
小林 先ほどの文章の検証のように、技術的には「どこから学習をしたのか」は本来ある程度は示せるはずです。絵を描いたクリエイターがAIサービスに学習されているかどうかを検証したい場合も、同様に確かめることもできるかもしれません(参考:NYタイムズ、オープンAIの提訴検討 現地メディア報道/日本経済新聞)。
ただ、自分が描いている絵が非常に特徴的であればそれも可能ですが、そうでなければ確認自体難しくなります。したがって、クリエイターの側からの「学習された」という立証は難しく、開発者でなければわからないということになってしまう。開発側が学習経路を出してくれなければ、クリエイターからはあくまで仮説を積み重ねることしかできないわけです。
―― ベータ版を公開即停止したmimicを思い出します。
ユーザー側が学習させる絵をAIに明示的に与えるタイプのサービスだったので、何を学習したかはハッキリしていて、それが批判を招いたわけですが、一方でネットのクローリングで学習対象が明示されていないStable Difusionや※Midjourneyがmimicのようには批判されていないのは、ある意味興味深いなと。 ※MidjourneyではLoraと呼ばれる追加学習によって、特定の作風に沿った出力を得る手法も存在している。
そして、膨大な学習によって成立しているので、クリエイター側が自身の作品を学習/模倣されたと立証するのは難しい。自身の作品を発表して認知拡大を図ろうとすればするほど、AIに「模倣」されるリスクが高くなるというジレンマに陥ってしまいます。
小林 おっしゃる通りですね。
【mimicの今後の展開について】 先般はmimicベータ版へ多数のご意見を頂戴し、誠にありがとうございました。 皆様のご意見を踏まえた、mimicの今後の展開について説明させていただきます。長文となり恐縮ですが、ご一読くださいますようお願い申し上げます。 pic.x.com/aYwY0a5bRf
— mimic(ミミック) (@illustmimic) September 14, 2022
ストラクチャーありきの組織は社会に害を与える可能性がある
―― ある意味「詰んでいる」ようにも見える状況ではありますが、そんななか、今回小林さんが翻訳された『AIの倫理リスクをどうとらえるのか』における考え方が、特にサービス事業者にとって重要になってくると言えます。
小林 本書では、倫理をストラクチャーとコンテンツに整理して、サービスを提供する側に本質的な対応をすることを求めています。CLIP STUDIO PAINTの例でもわかるように、現状はサービス事業者とユーザーとの間で共通理解ができていません。
本書で私が良いなと思ったのが、倫理を考え方で終わらせるのではなく「行動」に落とし込むために、どんな選択を採るべきなのか示している点です。
もちろん、本書に書かれていることが唯一ではないと思いますし、さまざまなアプローチはあるべきなのですが、一般的な企業で「考え方は決まったが、ではどう実行するか」という段階になったときに、途端にグダグダとなってしまうという、よくある挫折を未然に防ぐ可能性を高めてくれると思います。
現在、「AI倫理宣言」を打ち出す企業は増えています。しかし「AIはユーザーに不利益を与えない/人道に反さずバイアスや偏見を防ぐ」といった方針を定めたとして、それは確かに良いことなんだけれども、たとえば「顧客に害を為さない」とは具体的にどういうことかをブレイクダウン(細分化)しておく必要があるのです。つまり、ここがコンテンツの側面となります。
「こういうケースではAIはこのように活用/制限されなければならない」というコンテンツを想定したうえで、事業プロセスのなかで実現できる倫理の構造=ストラクチャーを作ろうという考え方のもと、本書ではチェックリストを提示しています。
事例として「クー・クラックス・クラン(KKK=白人至上主義を掲げる秘密結社)」が挙げられているように、理想や行動倫理といったストラクチャーがしっかりしている組織でも、コンテンツが黒人排斥といった危険な方向を志向していると社会に害を与えることが十分にあり得るわけです。
そのため、まずAIで何を実現したいのかというコンテンツを適切に定めることが重要になります。
ストラクチャーだけだと、実効性はあっても何をしたいのか不明確になりがちですが、「これを実現したい」というコンテンツとセットであれば、実現できているか否かを日々チェックしつつ運用できます。
―― 昨今のイーロン・マスク氏配下のXや、ビッグモーターなどが想起されますが、ストラクチャーが単純明快で極端であればあるほど、議論の余地なく組織はまとまりやすい。けれども、そういった事業者が提供する1つ1つのサービスのようなコンテンツがどうなるか、という話でもありますね。言わばカルトに近づいていくわけなので。
したがって、AIのような破壊的なゲームチェンジャーが現われたときこそ、「コンテンツが顧客と事業者、社会に利益をもたらしているか」からチェックしていくべきであると。
小林 その通りです。
ユーザーからの反発を企業はどう受け止めるべきか?
―― しかし、たとえばCLIP STUDIO PAINTも「クリエイターの利益をもたらすこと」を目指して画像生成AIパレットの搭載を進めた結果、ユーザーから想定外の反発を受けることになりました。
コンテンツをどう定めるのか、ユーザーとの共通の価値観を持つことも難易度の高い作業と言えるかもしれません。どうすれば良いのでしょうか?
〈〈後編はこちら〉
■Amazon.co.jpで購入
AIの倫理リスクをどうとらえるかリード・ブラックマン、小林啓倫白揚社
この記事に関連するニュース
-
豪首相が謝罪「AIの不祥事」に学ぶリスク管理 迫るEU法規制、日本企業も制裁の対象になる
東洋経済オンライン / 2024年7月5日 9時0分
-
ChatGPTよりも安全を掲げる"憲法AI"の可能性 AIをトレーニングし安全・無害・誠実な出力を行う
東洋経済オンライン / 2024年7月1日 11時30分
-
AIはアニメ制作現場でどこまで活用できるのか?スタジオジブリ作品にも参加する泉津井陽一氏×AIHUB 新井モノ氏の対談から浮き彫りになった現場のニーズ
アニメ!アニメ! / 2024年6月29日 15時0分
-
アドビ、生成AI機能「Acrobat AI Assistant」日本語版開発を発表 提供開始時期は未定
ORICON NEWS / 2024年6月13日 13時36分
-
AIに難しい「時間的な動き」の理解、動画-自然言語モデルで目指す突破口
ASCII.jp / 2024年6月13日 10時0分
ランキング
-
1「コレのせいやったんか」 最近スマホが重い → “とんでもない理由”が判明……!? 「自分もやってた」「4年以上経ちました」と猛者たち集結
ねとらぼ / 2024年7月5日 16時0分
-
2清春、27年前にブチギレた“因縁の大物芸人”と対峙 トガっていた時期に頭たたかれ“殺しのリスト”入りへ「テレビナメるな」「パーンって」
ねとらぼ / 2024年7月5日 16時5分
-
3Google検索も不要に? 検索AI「Perplexity」がスゴすぎてちょっと怖い
ITmedia NEWS / 2024年7月5日 19時16分
-
4ランサムウェア被害、報告続出 イセトーサイバー攻撃で今わかっていること(7月5日時点)
ASCII.jp / 2024年7月5日 15時45分
-
5プリングルズ価格改定 ショート缶は容量そのままサイズ変更して空間率減少へ
ねとらぼ / 2024年7月5日 16時20分
記事ミッション中・・・
記事にリアクションする
![](/pc/img/mission/mission_close_icon.png)
記事ミッション中・・・
記事にリアクションする
![](/pc/img/mission/point-loading.png)
エラーが発生しました
ページを再読み込みして
ください
![](/pc/img/mission/mission_close_icon.png)