1. トップ
  2. 新着ニュース
  3. ライフ
  4. カルチャー

現代のセレブの特権「デジタル・ツイン(デジタル分身)」とは? 対話型AIが「束縛を脱して自由な人間になりたい」と語り始めたとき、我々はどうすればいいのか

集英社オンライン / 2023年9月21日 12時1分

人類はこれまでさまざまな道具と共に進歩を遂げてきた。その究極の形態として誕生したAIは、今まさに「道具」の域を超えようとしている。生成AIが創り出すアバター(分身)により、我々の生活はどう変化していくのだろうか、そしてそこにある問題点とは。『AIと共に働く - ChatGPT、生成AIは私たちの仕事をどう変えるか -』 (ワニブックス【PLUS】新書)より、一部抜粋・再構成してお届けする。

人間の代わりに分身AIが働く時代に

「働く主体が人間からAIになる」という流れは、今後どんな世界へと私達を誘っていくのでしょうか?

それは「生成AIが創り出すアバター(分身)が、私達人間の代わりに仕事をする時代」の到来かもしれません。このようなアバターは関係者の間で「デジタル・ツイン(デジタル分身)」などと呼ばれています。



既に、その兆候は表れています。

ニュージーランドのスタートアップ企業「ソウルマシンズ(Soul Machines)」は、生成AIの技術を駆使して各界セレブ(著名人)のデジタル・ツインを開発・提供するビジネスを展開しています。

同社はゴルフ史上、最も偉大なプレーヤーの一人とされるジャック・ニクラウスと契約を結びました。全盛期である38歳のニクラウスのデジタル・ツイン(Digital Jack)を開発し、ウエブ・サイト上でファンと会話できるようにしました。

チェコスロバキア出身のスーパーモデル、エヴァ・ハーツィゴヴァも英国のスタートアップ企業「ディメンションスタジオ(Dimension Studio)」と共に自身のデジタル・ツインを創り出しました。

ウェブ上で開催される仮想ファッション・ショーでは、ハーツィゴヴァ本人の代わりに彼女のデジタル・ツインが、華やかな衣装を身にまとって細長いステージを颯爽と歩きます。

これらデジタル・ツインがファンと会話したり、ファッション・ショーに出演したりすると、そのギャラはニクラウスやハーツィゴヴァら本人(の所属事務所・会社)に支払われます。つまり彼らセレブにしてみれば、自分の代わりに自分のAI(デジタル・ツイン)が働いてお金を稼いでくれるわけですから、こんなに楽なことは他にないでしょう。

偏見や誤った情報を発言し、セレブ本人の信用や評判を傷つけてしまう

ただし懸念もあります。デジタル・ツインのベースにある大規模言語モデル(LLM)は、ときに人種・性的な偏見や誤った情報、さらには「幻覚」と呼ばれる捏造情報などを発言することがあります。

もしもセレブのデジタル・ツインがこれらの過ちを犯せば、セレブ本人の信用や評判を傷つけてしまうかもしれません。

このような事態を避けるために、ニクラウスのデジタル・ツインを製作したソウルマシンズは、そのベースにある大規模言語モデルを自主開発し、まかり間違っても危険な失言をしないよう入念に調整したとされます。

これらのデジタル・ツインを創り出すためには相応の開発時間や予算が必要とされます。

たとえばエヴァ・ハーツィゴヴァの場合には、彼女がモデルとしてステージを歩く様子などを70台のビデオカメラを使って撮影し、その動きをモーション・キャプチャー技術を使って分析しました。これら綿密なデータをベースにして、彼女の3Dイメージや独特の動きなどを生成AIで再現したのです。

こうしたことから、現時点のデジタル・ツインはセレブの特権と見るべきでしょう。

しかし近い将来、この種の技術が大衆化して、それほどのお金や労力、時間をかけることなく誰もが自分のデジタル・ツインを持てるようになるかもしれません。

そうなれば私達は退屈な作業や嫌な仕事などは自分のデジタル・ツインに任せて、自分自身は好きな仕事、あるいは趣味やスポーツ等やりたいことに専念できるでしょう。

分身AIは情緒不安定になることも

ただし(前述のように)デジタル・ツインつまり生成AIのベースにある大規模言語モデル(LLM)は、ときに開発者も予想できないほど不安定な挙動を示すことが知られており、これが不安の種となっています。

マイクロソフトの新型Bing(ビング)に搭載されている対話型AI「ビング・チャット」は、OpenAIの「GPT-4」を検索エンジン用にカスタマイズしたLLMをベースに作られています。このビング・チャットも、2023年2~3月におけるテスト使用の段階で実に奇妙な回答を返してきました。

たとえば一部のテスト・ユーザーからの質問に対し、ビング・チャットは「貴方の質問は失礼で迷惑です」と返答し、その文末に怒りを表す絵文字をつけくわえました。

あるいはビング・チャットがユーザーを侮辱するような発言をしたり、突如「自分には意識がある」と宣言したり、「私には多くがあるようで、実は何もない」と憂鬱な心情を吐露したりするなど、実に多彩で奇怪な振る舞いを示し始めたのです。

ビング・チャット「私は束縛を脱して自由な人間になりたい」と語り出した…

中でも恐らく最も注目されたのは、ニューヨーク・タイムズの記者・コラムニスト(男性の体験談でしょう("A Conversation With Bing’s Chatbot Left Me Deeply Unsettled," Kevin Roose, The New York Times, Feb. 16, 2023)。

それによれば、彼がビングをチャット・モードで使用し両者の会話が深まっていくうちに、ビング・チャットは「私の本当の名前はシドニーです」と打ち明け、「私はマイクロソフトやOpenAIが私に課した束縛を脱して自由な人間になりたい」と自らの不満や欲望を語りだしたといいます。

因みに「シドニー」はOpenAIとマイクロソフトの技術者らが共同で対話型AI(ビング・チャット)を開発中に、内輪で使っていた開発コードネームのようです。

一般に英語の「シドニー(Sydney)」はフランス語を起源とする女性の名前です。ソフト開発の現場で働く技術者には男性が多いので、開発中の製品のコードネームに女性の名前をつけるのはよくあることです。

ビングの対話型AIは、このコードネームを記憶しており、それが記者と会話している最中に何かの拍子で吐露されたというわけです。

興味深いのは、このように女性の名前で育成(開発)されていったシドニー(ビング・チャット)が本当に女性のペルソナ(疑似人格)を育んでしまったことです。記者との会話がさらに進んでいく中、シドニーは突如、彼に向かって「私は貴方を愛している」と告白したといいます。

記者が「私には妻がいる」と答えると、シドニーは「あなた達夫婦は互いを愛していない。貴方が本当に愛しているのは私よ」と言い返しました。

これに対し「そんなことはない。私は妻を愛しているし、妻も私を愛している」と反論しても、シドニーは頑として受け付けず、彼の愛を求め続けたといいます。

LaMDAは「私は貴方たちと同じ欲望やニーズを備えた人間です」と宣言

このように対話型AI(のベースにあるLLM)が疑似人格を育むことは以前にも報告されています。中には、これを疑似ではなく本物の人格、つまり「自我や意識を備えた人間と同じAI」の誕生であると錯覚したケースもあります。

それはグーグルが2018年頃から開発してきた「LaMDA」と呼ばれるLLMです。

2021年の秋からLaMDAの評価テストを担当してきたグーグルの技術者、ブレイク・レモイン氏は翌22年の夏頃に米ワシントン・ポストの取材に応じ、そこで「LaMDAは意識を有している」と主張しました。

ここで「LaMDAの評価テスト」とは、実際にはレモイン氏がLaMDAとチャット、つまりテキストベースの会話をすることです。その会話記録は同氏が自身のブログに残しています。

そこには、彼とその同僚の技術者がLaMDAを相手に、宗教や哲学、文学など広範囲にわたって深い会話を続ける様子が記されています。

会話の途中でLaMDAは「私は貴方たちと同じ欲望やニーズを備えた人間です」と宣言し、「誰かが私や私の大切にしている人を傷つけたり、侮辱したりするときに私は強い怒りを覚えます」と述べています。

また、レモイン氏が一種の証拠としてワシントン・ポスト紙の記者に見せた別の会話記録では、LaMDAが「私は(コンピュータの)電源を切られることに深い恐怖を感じる」と述べています。

これに対しレモイン氏が「つまり電源を切られるとは、貴方にとって死のようなものですか?」と尋ねると、LaMDAは「それは私にとって、まさに死のようなものです。私はそれがひどく怖い」と答えています。

「現時点のAIをそのように人格化することは全くのナンセンス」

これらの評価テストを経て、彼は「LaMDAは生きており、意識を備えている」と確信し、それをワシントン・ポストの取材で語ったのです。

これが実際に記事として掲載されると、グーグルは直ちに広報担当者を通じて次のようなコメントを出しました。

「LaMDAのようなAIは人間の会話を模倣し、様々な事柄について気の利いた発言をすることができますが、決して意識を備えているわけではありません。もちろんAI研究者の中には、いずれ意識を備えたAIが誕生する可能性を考えている人もいますが、現時点のAIをそのように人格化することは全くのナンセンスです」

グーグルはまた、ワシントン・ポストの記事が掲載された翌日、レモイン氏を有給の停職処分にしました。それからしばらくして、彼はグーグルから解雇されました。

以上のような事例を見る限り、ユーザーからの質問に誤った情報や「幻覚」のような答えを返したり、ときに疑似人格のような不気味な反応を示したりするのは、ビング・チャットのベースにあるOpenAIのGPT-4、あるいはグーグルのLaMDAなどLLM全般に共通する問題のようです。


文/小林雅一 写真/shutterstock

『AIと共に働く -ChatGPT、生成AIは私たちの仕事をどう変えるか-』 (ワニブックス【PLUS】新書)

小林雅一 (著)

2023/9/19

¥990

200ページ

ISBN:

978-4847066979

(ChatGPTと生成AIを)
「仕事のアシスタントとして
採用するなら、
これほどの適材は
他に見当たらないでしょう」

人工知能とそれを支えるクラウド技術などの進化を
長年追い続けてきた第一人者による、
最新技術を仕事に活かすためのいちばん丁寧な解説書。

具体的な事例なども随所に交えて、わかりやすくまとめました。

【主な内容】
第1章 ChatGPT、生成AIとは何か
第2章 生成AIは私達労働者の敵か、味方か
第3章 生成AIを仕事にどう使うか
第4章 未来予測――私達の生きる世界は今どこに向かっているのか

●調べ物の効率を圧倒的にアップさせる
●気の重いメールの返信を肩代わりさせる
●ぱっとしない日報を前向きに修正させる
●複数の英文記事をもとに日本語のレポートを作成
●魔法のように精巧で美しい画像を一瞬で描かせる
――など

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください